home *** CD-ROM | disk | FTP | other *** search
/ Software Vault: The Gold Collection / Software Vault - The Gold Collection (American Databankers) (1993).ISO / cdr55 / cld9comp.zip / CLD9COMP.TXT
Text File  |  1993-06-09  |  184KB  |  4,061 lines

  1. Archive-name: compression-faq/part1
  2. Last-modified: June 9th, 1993
  3.  
  4.   "I've already explained this once, but repetition is
  5.   the very soul of the net."  (from alt.config)
  6.  
  7. This file is part 1 of a set of Frequently Asked Questions (FAQ) for
  8. the groups comp.compression and comp.compression.research. (If you
  9. can't find part 2 or 3, see item 53 below.)
  10.  
  11. Certain questions get asked time and again, and this is an attempt to
  12. reduce the bandwidth taken up by these posts and their associated
  13. replies.  If you have a question, *please* check this file before you
  14. post.  It may save a lot of peoples time.
  15.  
  16. If you have not already read the overall Usenet introductory material
  17. posted to "news.announce.newusers", please do.
  18.  
  19. If you don't want to see this FAQ regularly, please add the
  20. subject line to your kill file. If you have corrections or suggestions
  21. for this FAQ, send them to Jean-loup Gailly <jloup@chorus.fr>.
  22. Thank you.
  23.  
  24. Part 1 is oriented towards practical usage of compression programs.
  25. Part 2 is more intended for people who want to know how compression works.
  26. Part 3 is a long list of image compression hardware.
  27.  
  28. Main changes relative to the previous version: 
  29.  
  30. - added suffix .gz and updated gzip version (item 2)
  31. - new version of presskit (item 2)
  32. - added pointer to old 'squeeze' (item 2)
  33. - new data compression patents as usual (item 8)
  34. - added pointer to a new wavelet image compression program (item 15)
  35.  
  36.  
  37. Contents
  38. ========
  39.  
  40. General questions:
  41.  
  42. [1]  What are these newsgroups about?
  43. [2]  What is this .xxx file type?
  44.      Where can I find the corresponding compression program?
  45. [3]  What is the latest pkzip version?
  46. [4]  What is an archiver?
  47. [5]  What is the best general purpose compression program?
  48. [7]  Which books should I read?
  49. [8]  What about patents on data compression algorithms?
  50. [9]  The WEB 16:1 compressor.
  51. [11] What is the V.42bis standard?
  52. [12] I need source for the winners of the Dr Dobbs compression contest
  53. [13] I need source for arithmetic coding
  54.  
  55. Image and audio compression:
  56.  
  57. [15] Where can I get image compression programs?
  58. [16] What is the state of the art in lossless image compression?
  59. [17] What is the state of fractal compression?
  60. [18] I need specs and source for TIFF and CCITT group 4 Fax.
  61. [19] What is JPEG?
  62. [20] I am looking for source of an H.261 codec and MPEG
  63. [25] Fast DCT (Discrete Cosine Transform) algorithms
  64. [26] Are there algorithms and standards for audio compression?
  65.  
  66. Common problems:
  67.  
  68. [30] My archive is corrupted!
  69. [31] pkunzip reports a CRC error!
  70. [32] VMS zip is not compatible with pkzip!
  71. [33] I have a problem with Stacker!
  72.  
  73. Questions which do not really belong to comp.compression:
  74.  
  75. [50] What is this 'tar' compression program?
  76. [51] I need a CRC algorithm
  77. [52] What about those people who continue to ask frequently asked questions?
  78. [53] Where are FAQ lists archived?
  79. [54] I need specs for graphics formats
  80. [55] Where can I find Lenna and other images?
  81. [56] I am looking for a message digest algorithm
  82.  
  83.  
  84. Part 2: (Long) introductions to data compression techniques
  85.  
  86. [70] Introduction to data compression (long)
  87.        Huffman and Related Compression Techniques
  88.        Arithmetic Coding
  89.        Substitutional Compressors
  90.           The LZ78 family of compressors
  91.           The LZ77 family of compressors
  92.  
  93. [71] Introduction to MPEG (long)
  94.        What is MPEG?
  95.        Does it have anything to do with JPEG?
  96.        Then what's JBIG and MHEG?
  97.        What has MPEG accomplished?
  98.        So how does MPEG I work?
  99.        What about the audio compression?
  100.        So how much does it compress?
  101.        What's phase II?
  102.        When will all this be finished?
  103.        How do I join MPEG?
  104.        How do I get the documents, like the MPEG I draft?
  105.  
  106. [72] What is wavelet theory?
  107. [73] What is the theoretical compression limit?
  108. [74] Introduction to JBIG
  109. [75] Introduction to JPEG
  110.  
  111.  
  112. Part 3: (Long) list of image compression hardware
  113.  
  114. [85] Image compression hardware
  115. [99] Acknowledgments
  116.  
  117.  
  118. Search for "Subject: [#]" to get to question number # quickly. Some news
  119. readers can also take advantage of the message digest format used here.
  120.  
  121. If you know very little about data compression, read question 70 in
  122. part 2 first.
  123.  
  124. ------------------------------------------------------------------------------
  125.  
  126. Subject: [1] What are these newsgroups about?
  127.  
  128.  
  129. comp.compression is the place to discuss about data compression, both
  130. lossless (for text or data) and lossy (for images, sound, etc..).
  131. comp.compression.research was created later to provide a forum for
  132. current research on data compression and data compression algorithms.
  133. If you are not experienced in data compression, please post in
  134. comp.compression only.
  135.  
  136. If you only want to find a particular compression program for a
  137. particular operating system, please read first this FAQ and the
  138. article "How to find sources" which is regularly posted in
  139. news.answers.
  140.  
  141. If you can't resist posting such a request, other groups are probably
  142. more appropriate (comp.binaries.ibm.pc.wanted, comp.sources.wanted,
  143. comp.sys.mac.wanted, comp.archives.msdos.d, alt.graphics.pixutils).
  144. Please post your request in comp.compression only as a last resource.
  145.  
  146. If your question is about graphics only (no compression), please
  147. post to comp.graphics, *after* reading the comp.graphics FAQ (see
  148. item 54 below). For some unknown reason, many questions about
  149. graphics are incorrectly posted to comp.compression.
  150.  
  151. Please do not post any program in binary form to comp.compression.
  152. Very short sources can be posted, but long sources should be be posted
  153. to the specialized source groups, such as comp.sources.* or alt.sources.
  154.  
  155. As for any newsgroups, do not post the same message separately to
  156. comp.compression and comp.compression.research.
  157.  
  158. ------------------------------------------------------------------------------
  159.  
  160. Subject: [2] What is this .xxx file type?
  161.              Where can I find the corresponding compression program?
  162.  
  163.  
  164. All the programs mentioned in this section are lossless.
  165. For most programs, one US and one European ftp site are given.
  166. (wuarchive.wustl.edu: 128.152.135.4, garbo.uwasa.fi: 128.214.87.1)
  167. Many other sites (in particular wsmr-simtel20.army.mil: 192.88.110.2)
  168. have the same programs.
  169.  
  170. To keep this list to a reasonable size, many programs are not
  171. mentioned here. Additional information can be found in the file
  172. ftp.cso.uiuc.edu:/doc/pcnet/compression [128.174.5.61] maintained by
  173. David Lemson (lemson@uiuc.edu). When several programs can handle
  174. the same archive format, only one of them is given.
  175.  
  176. Sources for additional lossless data compressors can be found in
  177. garbo.uwasa.fi:/pc/programming/lds_10.zip and
  178. oak.oakland.edu:/pub/msdos/archivers/lz-comp2.zip.
  179. Sources in Pascal are in garbo.uwasa.fi:/pc/turbopas/preskit2.zip.
  180.  
  181. For Macintosh programs, look on sumex-aim.stanford.edu:/info-mac [36.44.0.6].
  182. For VM/CMS, look on vmd.cso.uiuc.edu:/public.477 [128.174.5.98].
  183. For Atari, look on atari.archive.umich.edu [141.211.165.41]
  184. For Amiga, look on ftp.cso.uiuc.edu:/pub/amiga [128.174.5.59]
  185.  
  186. If you don't know how to use ftp or don't have ftp access, read the
  187. article "How to find sources" which is regularly posted in news.answers.
  188.  
  189. If you can't find a program given below, it is likely that a newer
  190. version exists in the same directory. (Tell me <jloup@chorus.fr>)
  191.  
  192. A very short description of the compression algorithm is given for
  193. most programs. For the meaning of LZ77, LZ78 and LZW, see question 
  194. 70 in part 2 of the FAQ.)
  195.  
  196. ext:  produced by or read by
  197.  
  198. .arc: arc, pkarc for MSDOS. (LZW algorithm)
  199.  wuarchive.wustl.edu:/mirrors/msdos/starter/pk361.exe
  200.  garbo.uwasa.fi:/pc/arcers/pk361.exe
  201.  
  202.       arc for Unix
  203.         wuarchive.wustl.edu:/mirrors/misc/unix/arc521e.tar-z
  204.  garbo.uwasa.fi:/unix/arcers/arc.tar.Z
  205.         Contact: Howard Chu <hyc@umix.cc.umich.edu>
  206.  
  207.       arc for VMS
  208.  wuarchive.wustl.edu:/packages/compression/vax-vms/arc.exe
  209.  
  210.       arcmac for Mac
  211.  mac.archive.umich.edu:/mac/utilities/compressionapps/arcmac.hqx
  212.  
  213.       arc for Amiga
  214.  ftp.funet.fi:pub/amiga/fish/001-100/ff070/arc.lha
  215.  
  216. .arj: arj for MSDOS (LZ77 with hashing, plus secondary static Huffman
  217.           encoding on a block basis)
  218.         Contact: Robert K Jung <robjung@world.std.com>
  219.         wuarchive.wustl.edu:/mirrors/msdos/archivers/arj230.exe
  220.  garbo.uwasa.fi:/pc/arcers/arj230ng.exe
  221.  garbo.uwasa.fi:/pc/arcers/arj239b.exe
  222.  
  223.       unarj for Unix. Decompresses only. (There is no arj compressor for Unix.
  224.         Don't post a request.)
  225.         wuarchive.wustl.edu:/mirrors/misc/unix/unarj230.tar-z
  226.  garbo.uwasa.fi:/unix/arcers/unarj230.tar.Z
  227.  
  228.       unarj for Mac
  229.         mac.archive.umich.edu:/mac/util/compression/unarjmac.cpt.hqx      
  230.  
  231.       unarj for Amiga
  232.  ftp.funet.fi:pub/amiga/utilities/archivers/unarj-0.5.lha
  233.  
  234. .cpt: Compact Pro for Mac
  235.         sumex-aim.stanford.edu:/info-mac/util/compact-pro-133.hqx [36.44.0.6]
  236.  
  237.       For Unix:
  238.  sumex-aim.stanford.edu:/info-mac/unix/macutil-20b1.shar
  239.         ftp.cwi.nl:/pub/macutil2.0b3.shar.Z
  240.  
  241. .gif: gif files are images compressed with the LZW algorithm. See the
  242.       comp.graphics FAQ list for programs manipulating .gif files. See
  243.       suffix .Z below for source of LZW.
  244.  
  245. .gz, .z:  gzip (or pack, see .z below). gzip uses the same algorithm as
  246.           zip 1.9 (see below); it can also extract packed and compressed files.
  247.       For Unix, MSDOS, OS/2, VMS, Atari, Amiga, Primos:
  248.  prep.ai.mit.edu:/pub/gnu/gzip-1.1.2.tar   (or .shar or .tar.z : source)
  249.  prep.ai.mit.edu:/pub/gnu/gzip-msdos-1.1.2.exe (msdos, lha self-extract)
  250.  garbo.uwasa.fi:/unix/arcers/gzip-1.1.1.tar.Z  (source)
  251.  garbo.uwasa.fi:/pc/arcers/gzip111.exe         (msdos exe, self-extract)
  252.  oak.oakland.edu:/pub/msdos/compress/gzip111.zip (msdos exe)
  253.         ftp.spc.edu:[.macro32.savesets]gzip-1-1-1.zip   (vms source & exe)
  254.  sumex-aim.stanford.edu:/info-mac/tmit/gzip.hqx (Macintosh exe)
  255.  
  256. .ha:  ha 0.98 for MSDOS (improved PPMC - 4th order Markov modeling)
  257.  garbo.uwasa.fi:/pc/arcers/ha098.exe
  258.  
  259. .hqx: Macintosh BinHex format.. (BinHex is *not* a compression program,
  260.  it is similar to uuencode but handles multiple forks.)
  261.        for Mac:
  262.   mac.archive.umich.edu:/mac/utilities/compressionapps/binhex4.0.bin
  263.  
  264.        for Unix:
  265.          sumex-aim.stanford.edu:/info-mac/unix/mcvert-165.shar [36.44.0.6]
  266.  
  267.        for MSDOS:
  268.          wuarchive.wustl.edu:/mirrors/msdos/xbin23.zip
  269.  
  270. .lha:
  271. .lzh: lha for MSDOS (LZ77 with a trie data structure, plus secondary static
  272.           Huffman coding on a block basis)
  273.  wuarchive.wustl.edu:/mirrors/msdos/archivers/lha213.exe   (exe)
  274.  wuarchive.wustl.edu:/mirrors/msdos/archivers/lha211sr.zip (sources)
  275.  garbo.uwasa.fi:/pc/arcers/lha213.exe
  276.  
  277.       lharc for Unix. (LZ77 with hash table and binary trees, plus secondary
  278.           Huffman coding)
  279.            Warning: lharc can extract .lzh files created by
  280.            lharc 1.xx but not those created by lha. See lha for Unix below.
  281.         wuarchive.wustl.edu:/mirrors/misc/unix/lharc102a.tar-z
  282.  garbo.uwasa.fi:/unix/arcers/lharcsrc.zoo
  283.  
  284.       lharc for VMS. Same warning as for Unix lharc.
  285.  wuarchive.wustl.edu:/packages/compression/vax-vms/lharc.exe
  286.  
  287.       lha for Unix. Warning: all doc is in Japanese.
  288.  wuarchive.wustl.edu:/mirrors/misc/unix/lha101u.tar-z
  289.  garbo.uwasa.fi:/unix/arcers/lha-1.00.tar.Z
  290.           Contact: lha-admin@oki.co.jp or oki@wbg.telcom.oki.co.jp
  291.  
  292.       lha for Mac
  293.         mac.archive.umich.edu:/mac/utilities/compressionapps/maclha2.0.cpt.hqx
  294.  
  295.       lha for Amiga
  296.  ftp.funet.fi:pub/amiga/utilities/archivers/LhA_e138.run
  297.  
  298.  
  299. .pak: pak for MSDOS (LZW algorithm)
  300.         wuarchive.wustl.edu:/mirrors/msdos/archivers/pak251.exe
  301.  garbo.uwasa.fi:/pc/arcers/pak251.exe
  302.  
  303. .pit: PackIt (Macintosh)
  304.        for Mac:
  305.          sumex-aim.stanford.edu:/info-mac/util/stuffit-151.hqx  [36.44.0.6]
  306.  
  307.        for Unix:
  308.          sumex-aim.stanford.edu:/info-mac/unix/mcvert-165.shar [36.44.0.6]
  309.  
  310. .pp: PowerPacker (Amiga)
  311.  ftp.funet.fi:pub/amiga/fish/501-600/ff561/PPLib.lha
  312.  
  313. .sea: self-extracting archive (Macintosh)
  314.          Run the file to extract it. The self-extraction code can be
  315.          removed with:
  316.    mac.archive.umich.edu:/mac/utilities/compressionapps/desea1.11.cpt.hqx
  317.  
  318. .shar:  Shell archive. This is not a compression program. Use "sh foo.shar"
  319.         to extract.
  320.  
  321. .sit: Stuffit for Macintosh
  322.        for Mac:
  323.          sumex-aim.stanford.edu:/info-mac/util/stuffit-lite-30.hqx [36.44.0.6]
  324.  
  325.        for Unix:
  326.          sumex-aim.stanford.edu:/info-mac/unix/unsit-15.shar [36.44.0.6]
  327.  
  328.        for Amiga:
  329.   ftp.funet.fi:pub/amiga/utilities/archivers/unsit-1.5c2.lha
  330.  
  331.        for MSDOS:
  332.   garbo.uwasa.fi:/pc/arcers/unsit30.zip
  333.  
  334. .?q?: Squeeze for MSDOS (do not confuse with other 'squeeze' below).
  335.       Static Huffman coding.
  336.  oak.oakland.edu:/pub/msdos/starter/sqpc12a.com (squeeze)
  337.  oak.oakland.edu:/pub/msdos/starter/nusq110.com (unsqueeze)
  338.  
  339. .sqz: Squeeze for MSDOS (do not confuse with other 'squeeze' above)
  340.       LZ77 with hashing.
  341.  wuarchive.wustl.edu:/mirrors/msdos/archivers/sqz1083e.exe
  342.         garbo.uwasa.fi:/pc/arcers/sqz1083e.exe
  343.  
  344. .tar: tar is *not* a compression program. However, to be kind for you:
  345.       for MSDOS
  346.  wuarchive.wustl.edu:/mirrors/msdos/starter/tarread.exe
  347.  garbo.uwasa.fi:/pc/unix/tar4dos.zoo
  348.  
  349.       for Unix
  350.         tar (you have it already. To extract: tar xvf file.tar)
  351.  
  352.       for VMS
  353.  wuarchive.wustl.edu:/packages/compression/vax-vms/tar.exe
  354.  
  355.       for Macintosh
  356.         sumex-aim.stanford.edu:/info-mac/util/tar-30.hqx
  357.  
  358.       for Amiga:
  359.  ftp.funet.fi:pub/amiga/fish/401-500/ff445/Tar.lha
  360.  
  361. .tar.Z, .tar-z, .taz: tar + compress
  362.       For Unix:     zcat file.tar.Z | tar xvf -
  363.       with GNU tar: tar xvzf file.tar.Z
  364.       Other OS: first uncompress (see .Z below) then untar (see .tar above)
  365.  
  366. .tar.z, .tgz: tar + gzip
  367.       For Unix: gzip -cd file.tar.z | tar xvf -
  368.       with GNU tar: tar xvzf file.tar.z
  369.       Other OS: first uncompress (see .z below) then untar (see .tar above)
  370.  
  371. .z:   pack or gzip (see .gz above). pack uses static Huffman coding.
  372.       To extract, see .gz above.
  373.  
  374. .zip: pkzip 1.10 for MSDOS. (LZ77 with hashing, plus secondary static
  375.           Shannon-Fano encoding on whole file)
  376.            Contact: pkware.inc@mixcom.com
  377.          wuarchive.wustl.edu:/mirrors/msdos/zip/pkz110eu.exe.
  378.          garbo.uwasa.fi:/pc/arcers/pkz110eu.exe.
  379.            Note: pkz110eu.exe is an 'export' version without encryption.
  380.  
  381.       zip 1.1 for Unix, MSDOS, VMS, OS/2, ... (compatible with pkzip 1.10.
  382.   For corresponding unzip, see unzip 5.0p1 below).
  383.   wuarchive.wustl.edu:/mirrors/misc/unix/zip11.zip
  384.  
  385.       arcutil 2.0 for VM/CMS (unzip only, not yet compatible with pkzip 2.04)
  386.          vmd.cso.uiuc.edu:/public.477/arcutil.* [128.174.5.98].
  387.  
  388.       pkzip 2.04g for MSDOS. (LZ77 with hashing, plus secondary static
  389.            Huffman coding on a block basis)
  390.          garbo.uwasa.fi:/pc/arcers/pkz204g.exe
  391.   ftp.cica.indiana.edu:/pub/pc/starter/pkz204g.exe.
  392.  
  393.       zip 1.9p1 and unzip 5.0p1 for Unix, MSDOS, VMS, OS/2, Amiga, ...
  394.           Compatible with pkzip 2.04g (LZ77 with hashing, plus secondary static
  395.           Huffman coding on a block basis)
  396.             Contact: zip-bugs@wkuvx1.bitnet
  397.   oak.oakland.edu:/pub/misc/unix/zip19p1.zip   (source)
  398.   oak.oakland.edu:/pub/misc/unix/unz50p1.tar-z (tar.Z source)
  399.   oak.oakland.edu:/pub/msdos/zip/zip19p1x.zip (MSDOS exe)
  400.   oak.oakland.edu:/pub/msdos/zip/unz50p1.exe  (MSDOS exe)
  401.          wuarchive.wustl.edu:/mirrors/garbo.uwasa.fi/arcutil/zcrypt19.zip
  402.          (encryption source. Non US residents must get it from garbo,see below)
  403.  
  404.   garbo.uwasa.fi:/unix/arcers/zip19p1.zip     (source)
  405.   garbo.uwasa.fi:/unix/arcers/unz50p1.tar.Z   (source)
  406.   garbo.uwasa.fi:/pc/arcers/zip19p1x.zip      (MSDOS exe)
  407.   garbo.uwasa.fi:/pc/arcers/unz50p1.exe       (MSDOS exe)
  408.          ftp.luth.se:/pub/amiga/util/arc/InfoZipI.lha (amiga exe zip+unzip)
  409.          garbo.uwasa.fi:/pc/arcutil/zcrypt19.zip     (encryption source)
  410.   ftp.win.tue.nl:/pub/compression/zip/zcryp19x.zip (crypt MSDOS exe)
  411.  
  412.        for Macintosh (zip-it and unzip-201 are compatible with pkzip 2.04)
  413.   sumex-aim.stanford.edu:/info-mac/util/zip-it-111.hqx
  414.   sumex-aim.stanford.edu:/info-mac/util/unzip-201.hqx
  415.   sumex-aim.stanford.edu:/info-mac/util/mac-zip-10.hqx
  416.  
  417. .zoo: zoo 2.10 for MSDOS (algorithm copied from that of lha, see lha above)
  418.       Contact: Rahul Dhesi <dhesi@cirrus.com>
  419.   wuarchive.wustl.edu:/mirrors/msdos/zoo/zoo210.exe
  420.   garbo.uwasa.fi:/pc/arcers/zoo210.exe
  421.  
  422.       zoo 2.10 for Unix, VMS
  423.          wsmr-simtel20.army.mil:pd8:<misc.unix>zoo210.tar-z [192.88.110.2]
  424.   garbo.uwasa.fi:/unix/arcers/zoo210.tar.Z
  425.  
  426.       zoo for Mac
  427.    mac.archive.umich.edu:/mac/utilities/compressionapps/maczoo.sit.hqx
  428.  
  429.       zoo for Amiga
  430.  ftp.funet.fi:pub/amiga/utilities/archivers/Zoo-2.1.lha
  431.  
  432. .F: freeze for Unix (LZ77 with hashing, plus secondary dynamic Huffman
  433.          encoding)
  434.      wuarchive.wustl.edu:/usenet/comp.sources.misc/volume25/freeze/part0[1-2].Z
  435.      ftp.inria.fr:/system/arch-compr/freeze-2.3.4.tar.Z
  436.      Contact: Leonid A. Broukhis <leo@s514.ipmce.su>
  437.  
  438. .Y: yabba for Unix, VMS, ... (Y coding, a variant of LZ78)
  439.   wuarchive.wustl.edu:/usenet/comp.sources.unix/volume24/yabbawhap/part0[1-4].Z
  440.   ftp.inria.fr:/system/arch-compr/yabba.tar.Z
  441.   Contact: Dan Bernstein <brnstnd@nyu.edu>
  442.  
  443. .Z: compress for Unix ('the' LZW algorithm)
  444.       It is likely that your Unix system has 'compress' already. Otherwise:
  445.  wuarchive.wustl.edu:/packages/compression/compress-4.1.tar
  446.         (not in .Z format to avoid chicken and egg problem)
  447.  
  448.     compress for MSDOS
  449.  wuarchive.wustl.edu:/mirrors/msdos/compress/comp430[ds].zip
  450.  garbo.uwasa.fi:/pc/unix/comp430d.zip
  451.  
  452.     compress for Macintosh
  453.         sumex-aim.stanford.edu:/info-mac/util/maccompress-32.hqx
  454.  
  455.     compress for Amiga
  456.  ftp.funet.fi:pub/amiga/utilities/archivers/compress-4.1.lha
  457.  
  458.     compress for Vax/VMS
  459.  wuarchive.wustl.edu:/packages/compression/vax-vms/lzcomp.exe
  460.  wuarchive.wustl.edu:/packages/compression/vax-vms/lzdcmp.exe
  461.  
  462. ------------------------------------------------------------------------------
  463.  
  464. Subject: [3]  What is the latest PKZIP version?
  465.  
  466. The latest official version is 2.04g. Release 2.04c had serious bugs,
  467. corrected in 2.04e and 2.04g.
  468.  
  469. Be warned that there are countless bogus PKZIP 1.20, 2.0, 2.02,
  470. 3.05 and whatever scams floating around.  They usually are hacks of
  471. PKZIP 1.93A beta test version.  Some of them are trojans and / or
  472. carry computer virii.
  473.  
  474. ------------------------------------------------------------------------------
  475.  
  476. Subject: [4] What is an archiver?
  477.  
  478.  
  479. There is a distinction between archivers and other compression
  480. programs:
  481.  
  482. - an archiver takes several input files, compresses them and produces
  483.   a single archive file. Examples are arc, arj, lha, zip, zoo.
  484.  
  485. - other compression programs create one compressed file for each
  486.   input file. Examples are freeze, yabba, compress. Such programs
  487.   are often combined with tar to create compressed archives (see
  488.   question 50: "What is this tar compression program?").
  489.  
  490. ------------------------------------------------------------------------------
  491.  
  492. Subject: [5] What is the best general purpose compression program?
  493.  
  494.  
  495. The answer is: it depends. (You did not expect a definitive answer,
  496. did you?)
  497.  
  498. It depends whether you favor speed, compression ratio, a standard and
  499. widely used archive format, the number of features, etc...  Just as
  500. for text editors, personal taste plays an important role. compress has
  501. 4 options, arj 2.30 has about 130 options; different people like
  502. different programs. *Please* do not start or continue flame wars on
  503. such matters of taste.
  504.  
  505. The only objective comparisons are speed and compression ratio. Here
  506. is a short table comparing various programs on a 33Mhz Compaq 386.
  507. All programs have been run on Unix SVR4, except pkzip and arj which
  508. only run on MSDOS. (MSDOS benchmarks are available by ftp on
  509. oak.oakland.edu:/pub/msdos/info/arctst*.zip.)
  510.  
  511. *Please* do not post your own benchmarks made on your own files that
  512. nobody else can access. If you think that you must absolutely post yet
  513. another benchmark, make sure that your test files are available by
  514. anonymous ftp.
  515.  
  516. The programs compared here were chosen because they are the most
  517. popular or because they run on Unix and source is available.  For ftp
  518. information, see above. Three programs (hpack, comp-2 and ha) have
  519. been added because they achieve better compression (at the expense of
  520. speed) and one program (lzrw3-a) has been added because it favors
  521. speed at the expense of compression:
  522.  
  523. - comp-2 is in wuarchive.wustl.edu:/mirrors/msdos/ddjmag/ddj9102.zip
  524.   (inner zip file nelson.zip),
  525. - hpack is in wuarchive.wustl.edu:/mirrors/misc/unix/hpack75a.tar-z
  526.   and garbo.uwasa.fi:/unix/arcers/hpack78src.tar.Z
  527. - ha 0.98 is in garbo.uwasa.fi:/pc/arcers/ha098.zip
  528. - ftp.adelaide.edu.au:/pub/compression/lzrw3-a.c  [129.127.40.3]
  529.  
  530. The 14 files used in the comparison are from the standard Calgary
  531. Text Compression Corpus, available by ftp on fsa.cpsc.ucalgary.ca [136.159.2.1]
  532. in /pub/text.compression.corpus/text.compression.corpus.tar.Z.
  533.  
  534. The whole corpus includes 18 files, but the 4 files paper[3-6] are
  535. generally omitted in benchmarks. It contains several kinds of file
  536. (ascii, binary, image, etc...) but has a bias towards large files.
  537. You may well get different ratings on the typical mix of files that
  538. you use daily, so keep in mind that the comparisons given below are
  539. only indicative.
  540.  
  541. The programs are ordered by decreasing total compressed size. For a
  542. fair comparison between archivers and other programs, this size is
  543. only the size of the compressed data, not the archive size.
  544.  
  545. The programs were run on an idle machine, so the elapsed time
  546. is significant and can be used to compare Unix and MSDOS programs.
  547.  
  548. [Note: I did not have time to run again all benchmarks with
  549.  freeze 2.4. To be done for next revision of this FAQ.]
  550.  
  551.        size     lzrw3a   compress    lharc    yabba     pkzip    freeze 
  552. version:                   4.0       1.02      1.0       1.10     2.3.5
  553. options:                                    -m300000                    
  554.        ------    -----    ------    ------    ------    ------   ------
  555. bib    111261    49040     46528     46502     40456     41354    41515 
  556. book1  768771   416131    332056    369479    306813    350560   344793 
  557. book2  610856   274371    250759    252540    229851    232589   230861 
  558. geo    102400    84214     77777     70955     76695     76172    68626 
  559. news   377109   191291    182121    166048    168287    157326   155783 
  560. obj1    21504    12647     14048     10748     13859     10546    10453 
  561. obj2   246814   108040    128659     90848    114323     90130    85500 
  562. paper1  53161    24522     25077     21748     22453     20041    20021 
  563. paper2  82199    39479     36161     35275     32733     32867    32693 
  564. pic    513216   111000     62215     61394     65377     63805    53291 
  565. progc   39611    17919     19143     15399     17064     14164    14143 
  566. progl   71646    24358     27148     18760     23512     17255    17064 
  567. progp   49379    16801     19209     12792     16617     11877    11686 
  568. trans   93695    30292     38240     28092     31300     23135    22861 
  569.     3,141,622  1,400,105 1,259,141 1,200,580 1,159,340 1,141,821 1,109,290
  570. real             0m35s     0m59s     5m03s     2m40s              5m27s
  571. user             0m25s     0m29s     4m29s     1m46s              4m58s
  572. sys              0m05s     0m10s     0m07s     0m18s              0m08s
  573. MSDOS:                                                   1m39s
  574.                         
  575.  
  576.          zoo       lha       arj      pkzip    zip      hpack   comp-2    ha
  577.         2.10    1.0(Unix)   2.30      2.04g    1.9      0.75a            0.98
  578.          ah    2.13(MSDOS)   -jm       -ex      -6                        a2
  579.        ------    ------    ------    ------  -------   ------   ------  ------
  580. bib     40742     40740     36090     35186    34950    35619    29840   26927
  581. book1  339076    339074    318382    313566   312619   306876   237380  235733
  582. book2  228444    228442    210521    207204   206306   208486   174085  163535
  583. geo     68576     68574     69209     68698    68418    58976    64590   59356
  584. news   155086    155084    146855    144954   144395   141608   128047  123335
  585. obj1    10312     10310     10333     10307    10295    10572    10819    9799
  586. obj2    84983     84981     82052     81213    81336    80806    85465   80381
  587. paper1  19678     19676     18710     18519    18525    18607    16895   15675
  588. paper2  32098     32096     30034     29566    29674    29825    25453   23956
  589. pic     52223     52221     53578     52777    55051    51778    55461   51639
  590. progc   13943     13941     13408     13363    13238    13475    12896   11795
  591. progl   16916     16914     16408     16148    16175    16586    17354   15298
  592. progp   11509     11507     11308     11214    11182    11647    11668   10498
  593. trans   22580     22578     20046     19808    18879    20506    21023   17927
  594.     1,096,166 1,096,138 1,036,934 1,019,451 1,021,043 1,005,367 890,976 845,854
  595. real    4m07s     6m03s                        1m49s   1h22m17s  27m05s
  596. user    3m47s     4m23s                        1m43s   1h20m46s  19m27s
  597. sys     0m04s     0m08s                        0m02s      0m12s   2m03s
  598. MSDOS:            1m49s     2m41s     1m43s                              14m43s
  599.  
  600. Notes:
  601.  
  602. - the compressed data for 'zoo ah' is always two bytes longer than for
  603.   lha. This is simply because both programs are derived from the same
  604.   source (ar002, written by Haruhiko Okumura, available by ftp in
  605.   wuarchive.wustl.edu:/mirrors/msdos/archivers/ar002.zip).
  606.  
  607. - hpack 0.75a gives slightly different results on SunOS. (To be checked
  608.   with 0.78).
  609.  
  610. - the MSDOS versions are all optimized with assembler code and were run
  611.   on a RAM disk. So it is not surprising that they often go faster than
  612.   their Unix equivalent.
  613.  
  614. ------------------------------------------------------------------------------
  615.  
  616. Subject: [7] Which books should I read?
  617.  
  618.  
  619. [BWC 1989] Bell, T.C, Witten, I.H, and Cleary, J.G.  "Text Compression",
  620.     Prentice-Hall 1989. ISBN: 0-13-911991-4. Price: approx. US$40
  621.     The reference on text data compression.
  622.  
  623. [Nel 1991] Mark Nelson, "The Data Compression Book"
  624.     M&T Books, Redwood City, CA, 1991.  ISBN 1-55851-216-0.
  625.     Price $36.95 including two 5" PC-compatible disks bearing
  626.     all the source code printed in the book.
  627.     A practical introduction to data compression.
  628.     The book is targeted at a person who is comfortable reading C code but
  629.     doesn't know anything about data compression.  Its stated goal is to get
  630.     you up to the point where you are competent to program standard
  631.     compression algorithms.
  632.  
  633. [Will 1990] Williams, R.  "Adaptive Data Compression", Kluwer Books, 1990.
  634.     ISBN: 0-7923-9085-7. Price: US$75.
  635.     Reviews the field of text data compression and then addresses the
  636.     problem of compressing rapidly changing data streams.
  637.  
  638. [Stor 1988] Storer, J.A.  "Data Compression: Methods and Theory", Computer
  639.     Science Press, Rockville, MD. ISBN: 0-88175-161-8.
  640.     A survey of various compression techniques, mainly statistical
  641.     non-arithmetic compression and LZSS compression.  Includes complete Pascal
  642.     code for a series of LZ78 variants.
  643.  
  644. [ACG 1991] Advances in Speech Coding, edited by Atal, Cuperman, and Gersho,
  645.     Kluwer Academic Press, 1991.
  646.  
  647. [GG 1991] Vector Quantization and Signal Compression, by Gersho and Gray,
  648.     Kluwer Acad. Press, 1991
  649.  
  650. [CT 1991] Elements of Information Theory, by T.M.Cover and J.A.Thomas
  651.      John Wiley & Sons, 1991. ISBN 0-471-06259-6.
  652.  
  653. Review papers:
  654.  
  655. [BWC 1989] Bell, T.C, Witten, I.H, and Cleary, J.G.  "Modeling for Text
  656.     Compression", ACM Computing Surveys, Vol.21, No.4 (December 1989), p.557
  657.     A good general overview of compression techniques (as well as modeling for
  658.     text compression); the condensed version of "Text Compression".
  659.  
  660. [Lele 1987] Lelewer, D.A, and Hirschberg, D.S.  "Data Compression", ACM
  661.     Computing Surveys, Vol.19, No.3 (September 1987), p.261.
  662.     A survey of data compression techniques which concentrates on Huffman
  663.     compression and makes only passing mention of other techniques.
  664.  
  665.  
  666. ------------------------------------------------------------------------------
  667.  
  668. Subject: [8] What about patents on data compression algorithms?
  669.  
  670.  
  671. [Note: the appropriate group for discussing software patents is
  672. comp.patents (or misc.legal.computing), not comp.compression.]
  673.  
  674. All patents mentioned here are US patents, and thus probably
  675. not applicable outside the US. See item 70, "Introduction to data
  676. compression" for the meaning of LZ77, LZ78 or LZW.
  677.  
  678.  
  679. (a) Run length encoding
  680.  
  681. - Tsukiyama has two patents on run length encoding: 4,586,027 and 4,872,009
  682.   granted in 1986 and 1989 respectively. The first one covers run length
  683.   encoding in its most primitive form: a length byte followed by the
  684.   repeated byte. The second patent covers the 'invention' of limiting the
  685.   run length to 16 bytes and thus the encoding of the length on 4 bits.
  686.   Here is the start of claim 1 of patent 4,872,009, just for pleasure:
  687.  
  688.     1. A method of transforming an input data string comprising a plurality
  689.     of data bytes, said plurality including portions of a plurality of
  690.     consecutive data bytes identical to one another, wherein said data
  691.     bytes may be of a plurality of types, each type representing different
  692.     information, said method comprising the steps of: [...]
  693.  
  694. - O'Brien has patented (4,988,998) run length encoding followed by LZ77.
  695.  
  696.  
  697. (b) LZ77
  698.  
  699. - Waterworth patented (4,701,745) the algorithm now known as LZRW1,
  700.   because Ross Williams reinvented it later and posted it on
  701.   comp.compression on April 22, 1991. (See item 5 for the ftp site
  702.   with all LZRW derivatives.) The *same* algorithm has later been
  703.   patented by Gibson & Graybill (see below). The patent office failed
  704.   to recognize that the same algorithm was patented twice, even though
  705.   the wording used in the two patents is very similar.
  706.  
  707.   The Waterworth patent is now owned by Stac Inc, and used as the basis
  708.   of a lawsuit against Microsoft, concerning the compression feature
  709.   of MSDOS 6.0.
  710.  
  711. - Fiala and Greene obtained in 1990 a patent (4,906,991) on all
  712.   implementations of LZ77 using a tree data structure. Claim 1 of the
  713.   patent is much broader than the algorithms published by Fiala and
  714.   Greene in Comm.ACM, April 89. The patent covers the algorithm
  715.   published by Rodeh and Pratt in 1981 (J. of the ACM, vol 28, no 1,
  716.   pp 16-24).  It also covers the algorithm previously patented by
  717.   Eastman-Lempel-Ziv (4,464,650), and the algorithms used in lharc,
  718.   lha and zoo.
  719.  
  720. - Notenboom (from Microsoft) 4,955,066 uses three levels of
  721.   compression, starting with run length encoding.
  722.  
  723. - The Gibson & Graybill patent 5,049,881 covers the LZRW1 algorithm
  724.   previously patented by Waterworth and reinvented by Ross Williams.
  725.   Claims 4 and 12 are very general and could be interpreted as
  726.   applying to any LZ algorithm using hashing (including all variants
  727.   of LZ78):
  728.  
  729.      4. A compression method for compressing a stream of input data into
  730.      a compressed stream of output data based on a minimum number of
  731.      characters in each input data string to be compressed, said
  732.      compression method comprising the creation of a hash table, hashing
  733.      each occurrence of a string of input data and subsequently searching
  734.      for identical strings of input data and if such an identical string
  735.      of input data is located whose string size is at least equal to the
  736.      minimum compression size selected, compressing the second and all
  737.      subsequent occurrences of such identical string of data, if a string
  738.      of data is located which does not match to a previously compressed
  739.      string of data, storing such data as uncompressed data, and for each
  740.      input strings after each hash is used to find a possible previous
  741.      match location of the string, the location of the string is stored
  742.      in the hash table, thereby using the previously processed data to
  743.      act as a compression dictionary.
  744.  
  745.   Claim 12 is identical, with 'method' replaced with 'apparatus'.  Since
  746.   the 'minimal compression size' can be as small as 2, the claim could
  747.   cover any dictionary technique of the LZ family. However the text of the
  748.   patent and the other claims make clear that the patent should cover the
  749.   LZRW1 algorithm only. (In any case the Gibson & Graybill patent is likely
  750.   to be invalid because of the prior art in the Waterworth patent.)
  751.  
  752. - Phil Katz, author of pkzip, also has a patent on LZ77 (5,051,745)
  753.   but the claims only apply to sorted hash tables, and when the hash
  754.   table is substantially smaller than the window size.
  755.  
  756. - IBM patented (5,001,478) the idea of combining a history buffer (the
  757.   LZ77 technique) and a lexicon (as in LZ78).
  758.  
  759. - Stac Inc patented (5,016,009 and 5,126,739) yet another variation of LZ77
  760.   with hashing. The '009 patent is used in the lawsuit against Microsoft
  761.   (see above). Stac also has patents on LZ77 with parallel lookup in
  762.   hardware (4,841,092 and 5,003,307).
  763.  
  764. - Robert Jung, author of 'arj', has been granted patent 5,140,321
  765.   for one variation of LZ77 with hashing.  This patent covers the LZRW3-A
  766.   algorithm, also previously discovered by Ross Williams. LZRW3-A was posted
  767.   on comp.compression on July 15, 1991. The patent was filed two months later
  768.   on Sept 4, 1991. (The US patent system allows this because of the
  769.   'invention date' rule.)
  770.  
  771. - Chambers 5,155,484 is yet another variation of LZ77 with hashing.
  772.   The hash function is just the juxtaposition of two input bytes,
  773.   this is the 'invention' being patented. The hash table is named
  774.   'direct lookup table'.
  775.  
  776.  
  777. (c) LZ78
  778.  
  779. - One form of the original LZ78 algorithm was patented (4,464,650) by
  780.   its authors Lempel, Ziv, Cohn and Eastman.
  781.  
  782. - The LZW algorithm used in 'compress'is patented by IBM (4,814,746)
  783.   and Unisys (4,558,302). It is also used in the V.42bis compression
  784.   standard (see question 11 on V.42bis below) and in Postscript Level 2.
  785.   (Unisys sells the license to modem manufacturers for a onetime
  786.   $25,000 fee.) The IBM patent application was filed three weeks
  787.   before that of Unisys, but the US patent office failed to recognize
  788.   that they covered the same algorithm. (The IBM patent is more
  789.   general, but its claim 7 is exactly LZW.)
  790.  
  791. - AP coding is patented by Storer (4,876,541). (Get the yabba package
  792.   for source code, see question 2 above, file type .Y)
  793.  
  794.  
  795. (d) arithmetic coding
  796.  
  797. - IBM holds many patents on arithmetic coding (4,286,256 4,295,125
  798.   4,463,342 4,467,317 4,633,490 4,652,856 4,891,643 4,905,297 4,935,882).
  799.   It has patented in particular the Q-coder implementation of arithmetic
  800.   coding.  The arithmetic coding option of the JPEG standard requires
  801.   use of the patented algorithm.  No JPEG-compatible method is
  802.   possible without infringing the patent, because what IBM actually
  803.   claims rights to is the underlying probability model (the heart of
  804.   an arithmetic coder). (See the JPEG FAQ for details.)
  805.  
  806.   AT&T has 3 patents on arithmetic coding (4,973,961, 5,023,611, 5,025,258).
  807.  
  808.  
  809. As can be seen from the above list, some of the most popular compression
  810. programs (compress, pkzip, zoo, lha, arj) are now covered by patents.
  811. (This says nothing about the validity of these patents.)
  812.  
  813. Here are some references on data compression patents. A number of them are
  814. taken from the list prep.ai.mit.edu:/pub/lpf/patent-list.
  815.  
  816. 3,914,586
  817. Data compression method and apparatus
  818. filed 10/25/73, granted 10/21/75
  819. General Motors Corporation, Detroit MI
  820. Duane E. McIntosh, Santa Ynez CA
  821. Data compression apparatus is disclosed is operable in either a bit
  822. pair coding mode of a word coding mode depending on the degree of
  823. redundancy of the data to be encoded.
  824.  
  825. 3,976,844
  826. Data communication system for transmitting data in compressed form
  827. filed Apr. 4, 1975, granted Aug. 24, 1976
  828. inventor  Bernard K. Betz, assignee Honeywell Information Systems, Inc.
  829. [encode differences with previous line]
  830.  
  831. 4,021,782
  832. Data compaction system and apparatus
  833. inventor Hoerning
  834. filed 04/30/1975, granted 05/03/1977
  835. [A primitive form of LZ77 with implicit offsets (compare with previous record)]
  836.  
  837. 4,054,951
  838. Data expansion apparatus
  839. inventor R.D. Jackson, assignee IBM
  840. filed Jun. 30, 1976, granted Oct. 18, 1977
  841. [Covers only decompression of data compressed with a variant of LZ77.]
  842.  
  843. 4,087,788
  844. Data compression system
  845. filed 1/14/77, granted 5/2/78
  846. NCR Canada LTD - NCR Canada Ltee, Mississauga CA
  847. Brian J. Johannesson, Waterloo CA
  848. A data compression system is disclosed in which the left hand boundary
  849. of a character is developed in the form of a sequence of Freeman
  850. direction codes, the codes being stored in digital form within a
  851. processor.
  852.  
  853. 4,286,256
  854. Method and means for arithmetic coding using a reduced number of operations.
  855. granted Aug 25, 1981
  856. assignee IBM
  857.  
  858. 4,295,125
  859. A method and means for pipeline decoding of the high to low order pairwise
  860. combined digits of a decodable set of relatively shifted finite number of
  861. strings
  862. granted Oct 13, 1981
  863. assignee IBM
  864.  
  865. 4,412,306
  866. System for minimizing space requirements for storage and transmission of
  867. digital signals
  868. filed May 14, 1981, granted Oct. 25, 1983
  869. inventor  Edward W. Moll
  870.  
  871. 4,463,342
  872. A method and means for carry-over control in a high order to low order
  873. combining of digits of a decodable set of relatively shifted finite number
  874. strings.
  875. granted Jul 31, 1984
  876. assignee IBM
  877.  
  878. 4,491,934
  879. Data compression process
  880. filed May 12, 1982, granted Jan. 1, 1985
  881. inventor  Karl E. Heinz
  882.  
  883. 4,464,650
  884. Apparatus and method for compressing data signals and restoring the
  885. compressed data signals
  886. inventors Lempel, Ziv, Cohn, Eastman
  887. assignees Sperry Corporation and At&T Bell Laboratories
  888. filed 8/10/81, granted 8/7/84
  889. A compressor parses the input data stream into segments where each
  890. segment comprises a prefix and the next symbol in the data stream
  891. following the prefix.
  892.  
  893. 4,467,317
  894. High-speed arithmetic compression using using concurrent value updating.
  895. granted Aug 21, 1984
  896. assignee IBM
  897.  
  898. 4,494,108
  899. Adaptive source modeling for data file compression within bounded memory
  900. filed Jun. 5, 1984, granted Jan. 15, 1985
  901. invntors Glen G. Langdon, Jorma J. Rissanen
  902. assignee IBM
  903. order 1 Markov modeling
  904.  
  905. 4,558,302
  906. High speed data compression and decompression apparatus and method
  907. inventor Welch
  908. assignee Sperry Corporation (now Unisys)
  909. filed 6/20/83, granted 12/10/85
  910. The text for this patent can be ftped from rusmv1.rus.uni-stuttgart.de
  911. (129.69.1.12) in /info/comp.patents/US4558302.Z.
  912.  
  913. 4,560,976
  914. Data compression
  915. filed 6/5/84, granted 12/24/85
  916. Codex Corporation, Mansfield MA
  917. Steven G. Finn, Framingham, MA
  918. A stream of source characters, which occur with varying relative
  919. frequencies, is encoded into a compressed stream of codewords, each
  920. having one, two or three subwords, by ranking the source characters by
  921. their current frequency of appearance, encoding the source characters
  922. having ranks no higher than a first number as one subword codewords,
  923. source characters having ranks higher than the first number but no
  924. higher than a second number as two subword codewords, and the
  925. remaining source characters as three subword codewords.
  926.  
  927. 4,586,027
  928. Method and system for data compression and restoration
  929. inventor Tsukimaya et al.
  930. assignee Hitachi
  931. filed 08/07/84, granted 04/29/86
  932.  
  933. 4,597,057
  934. System for compressed storate of 8-bit ascii bytes using coded strings
  935. of 4-bit nibbles.
  936. inventor Snow, assignee System Development corporation.
  937. filed 12/31/1981, granted 06/24/1986.
  938. Compression using static dictionary of common words, prefixes and suffixes.
  939.  
  940. 4,612,532
  941. Data compression apparatus and method
  942. inventor Bacon, assignee Telebyte Corportion
  943. filed Jun. 19, 1984, granted Sep. 16, 1986
  944. [Uses followsets as in the pkzip 0.92 'reduce' algorithm, but the
  945. followsets are dynamically updated. This is in effect a sort of order-1
  946. Markov modeling.]
  947.  
  948. 4,622,545
  949. Method and apparatus for image compression and Manipulation
  950. inventor William D. Atkinson
  951. assignee Apple computer Inc.
  952. filed 9/30/82
  953. granted 11/11/86
  954.  
  955. 4,633,490
  956. Symmetrical adaptive data compression/decompression system.
  957. granted Dec 30, 1985
  958. assignee IBM
  959.  
  960. 4,652,856
  961. A multiplication-free multi-alphabet arithmetic code.
  962. granted Feb  4, 1986
  963. assignee IBM
  964.  
  965. 4,667,649
  966. Data receiving apparatus
  967. filed 4/18/84, granted 6/30/87
  968. inventors Kunishi et al.
  969. assignee Canon Kabushiki Kaisha, Tokyo Japan
  970. compression of Fax images.
  971.  
  972. 4,682,150
  973. Data compression method and apparatus
  974. inventors Mathes and Protheroe, 
  975. assignee NCR Corporation, Dayton OH
  976. A system and apparatus for compressing redundant and nonredundant
  977. binary data generated as part of an operation of a time and attendance
  978. terminal in which the data represents the time an employee is present
  979. during working hours.
  980.  
  981. 4,701,745
  982. Data compression system
  983. inventor Waterworth John R
  984. assignee Ferranti PLC GB, patent rights now acquired by Stac Inc.
  985. filed 03/03/1986 (03/06/1985 in GB), granted 10/20/1987
  986. Algorithm now known as LZRW1 (see above)
  987. I claim:
  988. 1. A data compression system comprising an input store for receiving
  989. and storing a plurality of bytes of uncompressed data from an outside
  990. source, and data processing means for processing successive bytes of
  991. data from the input store;
  992. the data processing means including circuit means operable to check
  993. whether a sequence of successive bytes to be processed identical with
  994. a sequence of bytes already processed, and including hash generating
  995. means responsive to the application of a predetermined number of
  996. bytes in sequence to derive a hash code appropriate to those bytes, a
  997. temporary store in which the hash code may represent the address of a
  998. storage location, and a pointer counter operable to store in the
  999. temporary store at said address a pointer indicative of the position
  1000. in the input store of one of the predetermined number of bytes;
  1001. output means operable to apply to a transfer medium each byte of data
  1002. not forming part of such an identical sequence; and
  1003. encoding means responsive to the identification of such a sequence to
  1004. apply to the transfer medium an identification signal which identifies
  1005. both the location in the input store of the previous occurrence of the
  1006. sequence of bytes and the number of bytes contained in the sequence.
  1007.  
  1008. 4,730,348
  1009. Adaptive data compression system
  1010. inventor MacCrisken, assignee Adaptive Computer Technologies
  1011. filed Sep. 19, 1986, granted Mar. 8, 1988
  1012. [order-1 Markov modeling + Huffman coding + LZ77]
  1013.  
  1014. 4,758,899
  1015. Data compression control device
  1016. inventor Tsukiyama, assignee Hitachi
  1017. filed 11/20/1985, granted 07/19/1988
  1018. Limits compression to ensure that tape drive stays busy.
  1019.  
  1020. 4,809,350
  1021. Data compression system
  1022. filed Jan. 30, 1987, granted Feb. 28, 1989
  1023. inventor Yair Shimoni & Ron Niv
  1024. assignee Elscint Ltd., Haifa, Israel
  1025. [Image compression via variable length encoding of differences with
  1026. predicted data.]
  1027.  
  1028. 4,814,746
  1029. Data compression method
  1030. inventors Victor S. Miller, Mark N. Wegman
  1031. assignee IBM
  1032. filed 8/11/86, granted 3/21/89
  1033. A previous application was filed on 6/1/83, three weeks before the
  1034. application by Welch (4,558,302)
  1035. Communications between a Host Computing System and a number of remote
  1036. terminals is enhanced by a data compression method which modifies the
  1037. data compression method of Lempel and Ziv by addition of new character
  1038. and new string extensions to improve the compression ratio, and
  1039. deletion of a least recently used routine to limit the encoding tables
  1040. to a fixed size to significantly improve data transmission efficiency.
  1041.  
  1042. 4,853,696
  1043. Code converter for data compression/decompression
  1044. filed 4/13/87, granted 8/1/89
  1045. inventor Amar Mukherjee, Maitland FL
  1046. assignee University of Central Florida, Orlando FL
  1047. Another hardware Huffman encoder:
  1048. A code converter has a network of logic circuits connected in reverse
  1049. binary tree fashion with logic paths between leaf nodes and a common
  1050. root node.
  1051.  
  1052. 4,872,009
  1053. Method and apparatus for data compression and restoration
  1054. inventor Tsukimaya et al.
  1055. assignee Hitachi
  1056. filed 12/07/87, granted 10/03/89
  1057. This patent on run length encoding covers the 'invention' of limiting
  1058. the run length to 16 bytes and thus the encoding of the length on 4 bits.
  1059.  
  1060. 4,876,541
  1061. Stem [sic] for dynamically compressing and decompressing electronic data
  1062. filed 10/15/87, granted 10/24/89
  1063. inventor James A. Storer
  1064. assignee Data Compression Corporation
  1065. A data compression system for encoding and decoding textual data,
  1066. including an encoder for encoding the data and for a decoder for
  1067. decoding the encoded data.
  1068.  
  1069. 4,891,643
  1070. Arithmetic coding data compression/de-compression by selectively
  1071. employed, diverse arithmetic encoders and decoders.
  1072. granted Jan  2, 1990
  1073. assignee IBM
  1074.  
  1075. 4,905,297
  1076. granted Feb 27, 1990
  1077. assignee IBM
  1078. Arithmetic coding encoder and decoder system.
  1079.  
  1080. 4,906,991
  1081. Textual substitution data compression with finite length search window
  1082. filed 4/29/1988, granted 3/6/1990
  1083. inventors Fiala,E.R., and Greene,D.H.
  1084. assignee Xerox Corporation
  1085.  
  1086. 4,935,882
  1087. Probability adaptation for arithmetic coders.
  1088. granted Jun 19, 1990
  1089. assignee IBM
  1090.  
  1091. 4,941,193
  1092. Barnsley, fractal compression.
  1093.  
  1094. 4,943,869
  1095. Compression Method for Dot Image Data
  1096. filed 1988-05-04, granted 1990-07-24
  1097. assignee Fuji Photo Film Co.
  1098. Lossy and lossless image compression schemes.
  1099.  
  1100. 4,955,066
  1101. Compressing and Decompressing Text Files
  1102. filed  10/13/89, granted 09/04/90
  1103. inventor Notenboom, L.A.
  1104. assignee Microsoft
  1105. Now extended as 5,109,433
  1106. [Noted in signon screen of Word 5.5 and on the outside of the MS-DOS 5.0
  1107. Upgrade.]
  1108. A method of compressing a text file in digital form is disclosed.
  1109. A full text file having characters formed into phrases is provided by an
  1110. author.  The characters are digitally represented by bytes.  A first pass
  1111. compression is sequentially followed by a second pass compression of the
  1112. text which has previously been compressed.  A third or fourth level of
  1113. compression is serially performed on the compressed text.  For example, in
  1114. a first pass, the text is run-length compressed.  In a second pass, the
  1115. compressed text is further compressed with key phrase compression.  In a
  1116. third pass, the compressed text is further compressed with Huffman
  1117. compression.  The compressed text is stored in a text file having a Huffman
  1118. decode tree, a key phrase table, and a topic index.  The data is
  1119. decompressed in a single pass and provided one line at a time as an output.
  1120. Sequential compressing of the text minimizes the storage space required for
  1121. the file.  Decompressing of the text is performed in a single pass.  As a
  1122. complete line is decompressed, it is output rapidly, providing full text to
  1123. the user.
  1124.  
  1125. 4,973,961
  1126. Method and apparatus for carry-over control in arithmetic coding.
  1127. granted Nov 27, 1990
  1128. assignee AT&T
  1129.  
  1130. 4,988,998
  1131. Data compression system for successively applying at least two data
  1132. compression methods to an input data stream.
  1133. inventor O'Brien
  1134. assignee Storage Technology Corporation, Louisville, Colorado
  1135. filed Sep 5, 1989, granted Jan 29, 1991.
  1136. Run length encoding followed by LZ77.
  1137.  
  1138. 5,001,478
  1139. Method of Encoding Compressed Data
  1140. filed 12/28/89, granted 03/19/91
  1141. inventor Michael E. Nagy
  1142. assignee IBM
  1143. 1. A method of encoding a compressed data stream made up of a sequence of
  1144. literal references, lexicon references and history references, which
  1145. comprises the steps of:
  1146. assigning to each literal reference a literal identifier;
  1147. assigning to each history reference a history identifier;
  1148. assigning to each lexicon reference a lexicon identifier;
  1149. and emitting a data stream with said identifiers assigned to said references.
  1150. Gordon Irlam <gordoni@cs.adelaide.edu.au> says:
  1151. The invention can probably be best understood by considering the
  1152. decompressor.  It consists of a history buffer, and a lexicon buffer, both
  1153. of which are initially empty.  The history buffer contains the last n
  1154. symbols emitted.  Whenever a history buffer reference is to be output the
  1155. string so referenced is subsequently moved to the lexicon buffer for future
  1156. reference.  Thus the history buffer keeps track of strings that may be
  1157. repeated on a very short term basis, while the lexicon buffer stores items
  1158. for a longer time.  Furthermore a history reference involves specifying
  1159. both the offset and length within the history buffer, whereas a lexicon
  1160. reference simply specifies a number denoting the string.  Both buffers have
  1161. a finite size.
  1162.  
  1163. 5,003,307
  1164. Data compression apparatus with shift register search means
  1165. filed Oct. 6, 1989, granted Mar. 26, 1991
  1166. inventors George Glen A, Ivey Glen E, Whiting Douglas L
  1167. assignee Stac Inc
  1168. continuation of 4,841,092
  1169.  
  1170. 5,016,009
  1171. Data compression apparatus and method
  1172. filed 01/13/1989, granted 05/14/1991
  1173. inventors George Glen A, Ivey Glen E, Whiting Douglas L
  1174. assignee Stac Inc
  1175. LZ77 with offset hash table (extended in 5,126,739)
  1176.  
  1177. 5,023,611
  1178. Entropy encoder/decoder including a context extractor.
  1179. granted Jun 11, 1991
  1180. assignee AT&T
  1181.  
  1182. 5,025,258
  1183. Adaptive probability estimator for entropy encoder/decoder.
  1184. granted Jun 18, 1991
  1185. assignee AT&T
  1186.  
  1187. 5,049,881
  1188. Apparatus and method for very high data rate-compression incorporating
  1189. lossless data compression and expansion utilizing a hashing technique
  1190. inventors Dean K. Gibson, Mark D. Graybill
  1191. assignee Intersecting Concepts, Inc.
  1192. filed 6/18/90, granted 9/17/91
  1193. [covers lzrw1, almost identical with Waterworth 4,701,745]
  1194.  
  1195. 5,051,745
  1196. String searcher, and compressor using same
  1197. filed  8/21/90, granted 9/24/91
  1198. inventor  Phillip W. Katz (author of pkzip)
  1199. In the string search method and apparatus pointers to the string to be
  1200. searched are indexed via a hashing function and organized according to the
  1201. hashing values of the string elements pointed to. The hashing function is
  1202. also run on the string desired to be found, and the resulting hashing value
  1203. is used to access the index. If the resulting hashing value is not in the
  1204. index, it is known that the target string does not appear in the string
  1205. being searched. Otherwise the index is used to determine the pointers which
  1206. correspond to the target hashing value, these pointers pointing to likely
  1207. candidates for matching the target string. The pointers are then used to
  1208. sequentially compare each of the locations in the string being searched to
  1209. the target string, to determine whether each location contains a match to
  1210. the target string.
  1211. In the method and apparatus for compressing a stream of data symbols, a
  1212. fixed length search window, comprising a predetermined contiguous portion
  1213. of the symbol stream, is selected as the string to be searched by the
  1214. string searcher. If a string to be compressed is found in the symbol
  1215. stream, a code is output designating the location within the search window
  1216. of the matching string and the length of the matching string.
  1217.  
  1218. 5,065,447
  1219. Barnsley, fractal compression
  1220.  
  1221. 5,109,433
  1222. Compressing and decompressing text files
  1223. inventor Notenboom
  1224. assignee Microsoft
  1225. extension of 4,955,066
  1226.  
  1227. 5,126,739
  1228. Data Compression Apparatus and Method
  1229. filed Nov. 27, 1990, granted June 30, 1992.
  1230. inventor Whiting et. al
  1231. assignee Stac Inc
  1232. LZ77 with offset hash table (extension of 5,016,009)
  1233.  
  1234. 5,140,321
  1235. Data compression/decompression method and apparatus
  1236. filed 9/4/91, granted 8/18/92
  1237. inventor Robert Jung
  1238. assignee Prime Computer
  1239.  
  1240. 5,155,484
  1241. Fast data compressor with direct lookup table indexing into history buffer
  1242. filed 9/13/1991, granted 10/13/1992
  1243. inventor Chambers, IV, Lloyd L., Menlo Park, California
  1244. assignee Salient Software, Inc., Palo Alto, California (02)
  1245. Uses a 64K hash table indexed by the first two characters of
  1246. the input string. Includes several claims on the LZ77 file format
  1247. (literal or offset,length).
  1248.  
  1249. 5,179,378
  1250. file Jul. 30, 1991, granted Jan. 12, 1993
  1251. inventor Ranganathan
  1252. assignee University of South Florida
  1253. Method and apparatus for the compression and decompression of data
  1254. using Lempel-Ziv based techniques.
  1255. [This covers LZ77 hardware compression with a systolic array of
  1256. processors working in parallel.]
  1257.  
  1258. Japan 2-46275
  1259. Coding system
  1260. granted Feb 26, 1990
  1261. [Patents one form of arithmetic coding.]
  1262.  
  1263. ------------------------------------------------------------------------------
  1264.  
  1265. Subject: [9]  The WEB 16:1 compressor.
  1266.  
  1267.  
  1268. [WARNING: this topic has generated the greatest volume of news in the
  1269. history of comp.compression. Read this before posting on this subject.]
  1270.  
  1271.  
  1272. (a) What the press says
  1273.  
  1274. April 20, 1992  Byte Week Vol 4. No. 25:
  1275.  
  1276.    "In an announcement that has generated high interest - and more than a
  1277.    bit of skepticism - WEB Technologies (Smyrna, GA) says it has
  1278.    developed a utility that will compress files of greater than 64KB in
  1279.    size to about 1/16th their original length.  Furthermore, WEB says its
  1280.    DataFiles/16 program can shrink files it has already compressed."
  1281.    [...]
  1282.    "A week after our preliminary test, WEB showed us the program successfully
  1283.    compressing a file without losing any data.  But we have not been able
  1284.    to test this latest beta release ourselves."
  1285.    [...]
  1286.    "WEB, in fact, says that virtually any amount of data can be squeezed 
  1287.    to under 1024 bytes by using DataFiles/16 to compress its own output
  1288.    multiple times."
  1289.  
  1290. June 1992 Byte, Vol 17 No 6:
  1291.  
  1292.    [...] According to Earl Bradley, WEB Technologies' vice president of
  1293.    sales and marketing, the compression algorithm used by DataFiles/16
  1294.    is not subject to the laws of information theory. [...]
  1295.  
  1296.  
  1297. (b) First details, by John Wallace <buckeye@spf.trw.com>:
  1298.  
  1299. I called WEB at (404)514-8000 and they sent me some product
  1300. literature as well as chatting for a few minutes with me on the phone.
  1301. Their product is called DataFiles/16, and their claims for it are
  1302. roughly those heard on the net.
  1303.  
  1304. According to their flier:
  1305.  
  1306. "DataFiles/16 will compress all types of binary files to approximately
  1307. one-sixteenth of their original size ... regardless of the type of
  1308. file (word processing document, spreadsheet file, image file,
  1309. executable file, etc.), NO DATA WILL BE LOST by DataFiles/16."
  1310. (Their capitalizations; 16:1 compression only promised for files >64K
  1311. bytes in length.)
  1312.  
  1313. "Performed on a 386/25 machine, the program can complete a
  1314. compression/decompression cycle on one megabyte of data in less than
  1315. thirty seconds"
  1316.  
  1317. "The compressed output file created by DataFiles/16 can be used as the 
  1318. input file to subsequent executions of the program.  This feature of 
  1319. the utility is known as recursive or iterative compression, and will 
  1320. enable you to compress your data files to a tiny fraction of the 
  1321. original size.  In fact, virtually any amount of computer data can 
  1322. be compressed to under 1024 bytes using DataFiles/16 to compress its 
  1323. own output files muliple times.  Then, by repeating in reverse the 
  1324. steps taken to perform the recusive compression, all original data 
  1325. can be decompressed to its original form without the loss of a single 
  1326. bit."
  1327.  
  1328. Their flier also claims: 
  1329.  
  1330. "Constant levels of compression across ALL TYPES of FILES"
  1331. "Convenient, single floppy DATA TRANSPORTATION"
  1332.  
  1333. From my telephone conversation, I was was assured that this is an
  1334. actual compression program.  Decompression is done by using only the 
  1335. data in the compressed file; there are no hidden or extra files.
  1336.  
  1337.  
  1338. (c) More information, by Rafael Ramirez <rafael.ramirez@channel1.com>:
  1339.  
  1340.    Today (Tuesday, 28th) I got a call from Earl Bradley of Web
  1341. who now says that they have put off releasing a software version of
  1342. the algorithm because they are close to signing a major contract with
  1343. a big company to put the algorithm in silicon.  He said he could not
  1344. name the company due to non-disclosure agreements, but that they had
  1345. run extensive independent tests of their own and verified that the
  1346. algorithm works. [...]
  1347.  
  1348. He said the algorithm is so simple that he doesn't want anybody
  1349. getting their hands on it and copying it even though he said they
  1350. have filed a patent on it. [...] Mr. Bradley said the silicon version
  1351. would hold up much better to patent enforcement and be harder to copy.
  1352.  
  1353.    He claimed that the algorithm takes up about 4K of code, uses only
  1354. integer math, and the current software implementation only uses a 65K
  1355. buffer.  He said the silicon version would likely use a parallel
  1356. version and work in real-time. [...]
  1357.  
  1358.  
  1359. (d) The impossiblity proofs.
  1360.  
  1361. It is impossible for a given program to compress without loss *all*
  1362. files greater than a certain size by at least one bit. This can be
  1363. proven by a simple counting argument. (Many other proofs have been
  1364. posted on comp.compression, *please* do not post yet another one.)
  1365.  
  1366. Assume that the program can compress without loss all files of size >= N
  1367. bits.  Compress with this program all the 2^N files which have
  1368. exactly N bits.  All compressed files have at most N-1 bits, so there
  1369. are at most (2^N)-1 different compressed files [2^(N-1) files of size
  1370. N-1, 2^(N-2) of size N-2, and so on, down to 1 file of size 0]. So at
  1371. least two different input files must compress to the same output file.
  1372. Hence the compression program cannot be lossless. (Stronger results
  1373. about the number of incompressible files can be obtained, but the
  1374. proofs are a little more complex.)
  1375.  
  1376. This argument applies of course to WEB's case (take N = 64K*8 bits).
  1377. Note that no assumption is made about the compression algorithm.
  1378. The proof applies to *any* algorithm, including those using an
  1379. external dictionary, or repeated application of another algorithm,
  1380. or combination of different algorithms, or representation of the
  1381. data as formulas, etc... All schemes are subject to the counting argument.
  1382. There is no need to use information theory to provide a proof, just
  1383. basic mathematics.
  1384.  
  1385. This assumes of course that the information available to the decompressor
  1386. is only the bit sequence of the compressed data. If external information
  1387. such as a file name or a number of iterations is necessary to decompress
  1388. the data, the bits providing the extra information must be included in
  1389. the bit count of the compressed data. (Otherwise, it would be sufficient
  1390. to consider any input data as a number, use this as the iteration
  1391. count or file name, and pretend that the compressed size is zero.)
  1392.  
  1393. [See also question 73 "What is the theoretical compression limit?" in
  1394. part 2 of this FAQ.]
  1395.  
  1396.  
  1397. (e) No software version
  1398.  
  1399. Appeared on BIX, reposted by Bruce Hoult <Bruce.Hoult@actrix.gen.nz>:
  1400.  
  1401. tojerry/chaos #673, from abailey, 562 chars, Tue Jun 16 20:40:34 1992
  1402. Comment(s). 
  1403. ----------
  1404. TITLE: WEB Technology
  1405. I promised everyone a report when I finally got the poop on WEB's
  1406. 16:1 data compression. After talking back and forth for a year
  1407. and being put off for the past month by un-returned phone calls,
  1408. I finally got hold of Marc Spindler who is their sales manager.
  1409.  
  1410. _No_ software product is forth coming, period!
  1411.  
  1412. He began talking about hardware they are designing for delivery
  1413. at the end of the year. [...]
  1414.  
  1415.  
  1416. (f) Product cancelled
  1417.  
  1418. Posted by John Toebes <toebes@bnr.ca> on Aug 10th, 1992:
  1419.  
  1420. [Long story omitted, confirming the reports made above about the
  1421. original WEB claims.]
  1422.  
  1423. 10JUL92 - Called to Check Status.  Was told that testing had uncovered a
  1424.           new problem where 'four numbers in a matrix were the same
  1425.           value' and that the programmers were off attempting to code a
  1426.           preprocessor to eliminate this rare case.  I indicated that he
  1427.           had told me this story before.  He told me that the
  1428.           programmers were still working on the problem.
  1429.  
  1430. 31JUL92 - Final Call to Check Status.  Called Earl in the morning and
  1431.           was told that he still had not heard from the programmers. [...]
  1432.           Stated that if they could not resolve the problem then there would
  1433.           probably not be a product.
  1434.  
  1435. 03AUG92 - Final Call.  Earl claims that the programmers are unable to
  1436.           resolve the problem.  I asked if this meant that there would
  1437.           not be a product as a result and he said yes.
  1438.  
  1439.  
  1440. (g) Conclusion
  1441.  
  1442. The last report given above should put an end to the WEB story.
  1443.  
  1444. [Note from the FAQ maintainer: I will keep this long story in the FAQ
  1445. for a while, and will remove it when the dust has finally settled
  1446. down.]
  1447.  
  1448. ------------------------------------------------------------------------------
  1449.  
  1450. Subject: [11] What is the V.42bis standard?
  1451.  
  1452.  
  1453. A description of the V.42bis standard is given in "The V.42bis
  1454. standard for data-compressing modems," by Clark Thomborson
  1455. <cthombor@theory.lcs.mit.edu>, IEEE Micro, Oct 1992, pp. 41-53. 
  1456.  
  1457. Short introduction, by Alejo Hausner <hausner@qucis.queensu.ca>:
  1458.  
  1459. The V.42bis Compression Standard was proposed by the International
  1460. Consultative Committee on Telephony and Telegraphy (CCITT) as an
  1461. addition to the v.42 error-correction protocol for modems. Its purpose
  1462. is to increase data throughput, and uses a variant of the
  1463. Lempel-Ziv-Welch (LZW) compression method.  It is meant to be
  1464. implemented in the modem hardware, but can also be built into the
  1465. software that interfaces to an ordinary non-compressing modem.
  1466.  
  1467. V.42bis can send data compressed or not, depending on the
  1468. data.  There are some types of data that cannot be
  1469. compressed.  For example, if a file was compressed first,
  1470. and then sent through a V.42bis modem, the modem would not
  1471. likely reduce the number of bits sent.  Indeed it is likely
  1472. that the amount of data would increase somewhat.
  1473.  
  1474. To avoid this problem, the algorithm constantly monitors the
  1475. compressibility of the data, and if it finds fewer bits
  1476. would be necessary to send it uncompressed, it switches to
  1477. transparent mode.  The sender informs the receiver of this
  1478. transition through a reserved escape code.  Henceforth the
  1479. data is passed as plain bytes.
  1480.  
  1481. The choice of escape code is clever.  Initially, it is a
  1482. zero byte.  Any occurrence of the escape code is replaced,
  1483. as is customary, by two escape codes.  In order to prevent a
  1484. string of escape codes from temporarily cutting throughput
  1485. in half, the escape code is redefined by adding 51 mod 256
  1486. each time it is used.
  1487.  
  1488. While transmitting in transparent mode, the sender maintains
  1489. the LZW trees of strings, and expects the receiver to do
  1490. likewise.  If it finds an advantage in returning to
  1491. compressed mode, it will do so, first informing the receiver
  1492. by a special control code.  Thus the method allows the
  1493. hardware to adapt to the compressibility of the data.
  1494.  
  1495.  
  1496. The CCITT standards documents used to be available by ftp on
  1497. ftp.uu.net in /doc/standards/ccitt, but this service has been
  1498. discontinued. If you ftp to digital.resource.org, in directory pub/standards
  1499. there is a file that says that making the standards available in the
  1500. first place was just an experiment.
  1501.  
  1502. The documents are now on src.doc.ic.ac.uk, in directory
  1503. /computing/ccitt/standards/ccitt (they used to be in directory
  1504. doc/ccitt-standards/ccitt, so look around if you don't find them).
  1505. The v42bis standard is in /computing/ccitt/standards/ccitt/1992/v/v42bis.asc.Z.
  1506.  
  1507. A mail server for CCITT documents is available at teledoc@itu.arcom.ch.
  1508. For more information, contact Robert Shaw <shaw@itu.arcom.ch> or
  1509. Antoinette Bautista <bautista@itu.arcom.ch>. Warning by John Levine
  1510. <johnl@iecc.cambridge.ma.us>:
  1511.  
  1512.   This teledoc thing is much less than meets the eye.  What it
  1513.   actually has is one-page abstracts of some but not all CCITT
  1514.   recommendations, along with junk like lists of the national
  1515.   representatives to CCITT.  If you want the actual text of a
  1516.   recommendation, you have to send large amounts of money to
  1517.   Switzerland, same as ever. However, a closer reading of the Teledoc
  1518.   announcement shows that they say they're planning to make the actual
  1519.   text of some CCITT recommendations available on-line sometime in 1993.
  1520.  
  1521.  
  1522. See also the Standards FAQ posted to news.answers or get it by ftp in
  1523. rtfm.mit.edu:/pub/usenet/news.answers/standards-faq.
  1524.  
  1525. ------------------------------------------------------------------------------
  1526.  
  1527. Subject: [12] I need source for the winners of the Dr Dobbs compression contest
  1528.  
  1529.  
  1530. The source of the top 6 programs of the Feb 91 Dr Dobbs data compression
  1531. contest are available by ftp on
  1532.   wsmr-simtel20.army.mil in pd1:<msdos.compress>ddjcompr.zip. [192.88.110.2]
  1533.   garbo.uwasa.fi:/pc/source/ddjcompr.zip [128.214.87.1]
  1534.  
  1535. The sources are in MSDOS end-of-line format, one directory per
  1536. program.  Unix or VMS users, use "unzip -a ddjcompr" to get correct
  1537. end-of-lines (add -d to recreate the directory structure if you are
  1538. using an obsolete version of unzip such as 4.1). Three of the 6
  1539. programs are not portable and only run on MSDOS. compact and urban
  1540. work on Unix, sixpack only requires minor modifications.
  1541.  
  1542. ------------------------------------------------------------------------------
  1543.  
  1544. Subject: [13] I need source for arithmetic coding
  1545.  
  1546.  
  1547. (See question 70 for an introduction to arithmetic coding.)
  1548.  
  1549. The source for the arithmetic coder described in Chap.5 of Bell,
  1550. Cleary, and Witten's book "Text Compression" (see question 7 above)
  1551. (or, equivalently, in: Witten, Neal, and Cleary's article "Arithmetic
  1552. Coding for data Compression" from Communications of the Association
  1553. for Computing Machinery, 30 (6), pp.520-540, June, 1987) is available
  1554. via anonymous ftp from fsa.cpsc.ucalgary.ca (136.159.2.1) in directory
  1555. /pub/arithmetic.coding.  It only comes with a simple order-0 model but
  1556. it's set up so that adding your own more sophisticated one is
  1557. straightforward.
  1558.  
  1559. A low precisiΦí6Xref: nuchat comp.compression:7740 news.answers:9179
  1560. Path: nuchat!menudo.uh.edu!swrinde!cs.utexas.edu!utnut!torn!nott!bnrgate!bnr.co.uk!pipex!uknet!mcsun!julienas!chorus!chorus.fr
  1561. From: jloup@chorus.fr (Jean-loup Gailly)
  1562. Newsgroups: comp.compression,news.answers,comp.answers
  1563. Subject: comp.compression Frequently Asked Questions (part 1/3)
  1564. Summary: *** READ THIS BEFORE POSTING ***
  1565. Keywords: data compression, FAQ
  1566. Message-ID: <compr1_9jun93@chorus.fr>
  1567. Date: 9 Jun 93 13:23:27 GMT
  1568. Expires: 30 Jul 93 16:17:20 GMT
  1569. Sender: news@chorus.chorus.fr
  1570. Reply-To: jloup@chorus.fr
  1571. Followup-To: comp.compression
  1572. Lines: 2399
  1573. Approved: news-answers-request@MIT.Edu
  1574. Supersedes: <compr1_19mapi@nada.kth.se>.
  1575.  
  1576. ------------------------------------------------------------------------------
  1577.  
  1578. Subject: [15] Where can I get image compression programs?
  1579.  
  1580.  
  1581. JPEG:
  1582.       Source code for most any machine:
  1583.       ftp.uu.net:/graphics/jpeg/jpegsrc.v4.tar.Z [137.39.1.9]
  1584.       nic.funet.fi:/pub/graphics/packages/jpeg/jpegsrc.v4.tar.Z [128.214.6.100]
  1585.       Contact: jpeg-info@uunet.uu.net (Independent JPEG Group)
  1586.  
  1587.       havefun.stanford.edu:pub/jpeg/JPEGv1.0.tar.Z
  1588.       Contact: Andy Hung <achung@cs.stanford.edu> (see item 20 below)
  1589.  
  1590.       xv, an image viewer which can read JPEG pictures, is available in
  1591.       export.lcs.mit.edu: contrib/xv-2.21.tar.Z [18.24.0.12]
  1592.  
  1593. MPEG:
  1594.       havefun.stanford.edu:/pub/mpeg/MPEGv1.1.tar.Z
  1595.       Contact: Andy Hung <achung@cs.stanford.edu> (see item 20 below)
  1596.  
  1597.       toe.cs.berkeley.edu:/pub/multimedia/mpeg/mpeg_play-2.0.tar.Z
  1598.       Contact: mpeg-bugs@cs.berkeley.edu
  1599.  
  1600.       nvr.com:/pub/NVR-software/Product-1.0.4.tar.Z   (192.82.231.50)
  1601.       (free demo copy of NVR's software toolkit for SPARCstations)
  1602.       Contact: Todd Brunhoff <toddb@nvr.com>
  1603.  
  1604. H.261(P*64):
  1605.       havefun.stanford.edu:pub/p64/P64v1.1.tar.Z
  1606.       Contact: Andy Hung <achung@cs.stanford.edu> (see item 20 below)
  1607.  
  1608. epic: (pyramid wavelet coder, see item 72)
  1609.       whitechapel.media.mit.edu:/pub/epic.tar.Z [18.85.0.125]
  1610.       Contact: Eero P. Simoncelli <eero@media.mit.edu>
  1611.       The "Lenna" test image is available as part of the EPIC package,
  1612.       where it is named "test_image".
  1613.  
  1614. hcompress: (wavelet impage compression)
  1615.       stsci.edu:/software/hcompress/hcompress.tar.Z
  1616.  
  1617. compfits:
  1618.       uwila.cfht.hawaii.edu:/pub/compfits/compfits.tar.Z  [128.171.80.50]
  1619.       Contact: Jim Wright <jwright@cfht.hawaii.edu>
  1620.  
  1621. fitspress:
  1622.       cfata4.harvard.edu:/pub/fitspress08.tar.Z [128.103.40.79]
  1623.  
  1624. tiff:
  1625.       For source and sample images, see question 18 below.
  1626.  
  1627. ivs: Inria videoconference system
  1628.      ftp.inria.fr:/INRIA/ivs-2.1.tar.Z
  1629.  
  1630.  
  1631. For image compression hardware, see item 85 in part 3 of this FAQ.
  1632.  
  1633. ------------------------------------------------------------------------------
  1634.  
  1635. Subject: [16] What is the state of the art in lossless image compression?
  1636.  
  1637.  
  1638. The current state-of-the-art is the JBIG algorithm.  For an
  1639. introduction to JBIG, see question 74 in part 2.
  1640.  
  1641. JBIG works best on bi-level images (like faxes) and also works well on
  1642. Gray-coded grey scale images up to about six or so bits per pixel.  You
  1643. just apply JBIG to the bit planes individually.  For more bits/pixel,
  1644. lossless JPEG provides better performance, sometimes. (For JPEG, see
  1645. question 19 below.)
  1646.  
  1647. You can find a description of JBIG in ISO/IEC CD 11544, contained in
  1648. document ISO/IEC JTC1/SC2/N2285.  The only way to get it is to ask
  1649. your National Standards Body for a copy. In the USA, call ANSI at
  1650. (212) 642-4900.
  1651.  
  1652. ------------------------------------------------------------------------------
  1653.  
  1654. Subject: [17] What is the state of fractal compression?
  1655.  
  1656.  
  1657. from Tal Kubo <kubo@zariski.harvard.edu>:
  1658.  
  1659. According to Barnsley's book 'Fractals Everywhere', this method is
  1660. based on a measure of deviation between a given image and its
  1661. approximation by an IFS code.  The Collage Theorem states that there is
  1662. a convergent process to minimize this deviation.  Unfortunately,
  1663. according to an article Barnsley wrote for BYTE a few years ago, this
  1664. convergence was rather slow, about 100 hours on a Cray, unless assisted by
  1665. a person.
  1666.  
  1667. Barnsley et al are not divulging any technical information beyond the
  1668. meager bit in 'Fractals Everywhere'.  The book explains the idea of IFS
  1669. codes at length, but is vague about the application of the Collage theorem
  1670. to specific compression problems.
  1671.  
  1672. There is reason to believe that Barnsley's company has
  1673. *no algorithm* which takes a given reasonable image and achieves
  1674. the compression ratios initially claimed for their fractal methods.
  1675. The 1000-to-1 compression advertised was achieved only for a 'rigged'
  1676. class of images, with human assistance. The best unaided
  1677. performance I've heard of is good lossy compression of about 80-1.
  1678.  
  1679. Steve Tate <srt@duke.cs.duke.edu> confirms:
  1680.  
  1681. Compression ratios (unzoomed) seem to range from 20:1 to 60:1...  The
  1682. quality is considerably worse than wavelets or JPEG on most of the
  1683. non-contrived images I have seen.
  1684.  
  1685. But Yuval Fisher <fisher@inls1.ucsd.edu> disagrees:
  1686.  
  1687. Their performance has improved dramatically beyond what they were
  1688. talking about in BYTE a few years ago.  Human assistance to the
  1689. compression is no longer needed and the compression time is
  1690. reasonable, although the more time and compute power you throw at the
  1691. compression, the smaller the resulting file for the same level of
  1692. quality.
  1693.  
  1694. Geoffrey A Stephenson <ketlux@ketlux.demon.co.uk> adds:
  1695.  
  1696. Iterated systems are shipping a general purpose compressor at about
  1697. 300 Pounds in the UK that claims "640x480 24 bit colour compression of
  1698. about 1 min at 922k -> 10k on a 486/50 software only, decomp. to 8
  1699. bits in 3 secs, etc." At a recent multimedia conference in London they
  1700. handed out free demo disks that show the decomp. in action. The
  1701. package runs under both DOS anf WIN (DLLs provided for use in
  1702. applications). They also sell a board to speed up compression and
  1703. offer versions supporting full motion video (but not apparently at all
  1704. SVGA sizes like the static picture version). I have not yet got my
  1705. hands on a full version to test different types of pictures, but
  1706. friends have a and claim it looks good.
  1707.  
  1708.  
  1709. Programs:
  1710.  
  1711. A fractal image compression program is available by ftp in
  1712. lyapunov.ucsd.edu:/pub/young-fractal/unifs10.zip. (Unix users, See
  1713. item 2 above for unzip on Unix.) Note the file size before you ftp it:
  1714. 1.2 MB. The package contains source for compression and decompression,
  1715. source for X-windows decompression, MSDOS executables and images.
  1716. A newer version of the program is in yuvpak20.zip.
  1717.  
  1718. A fractal image decompression program (note: decompression only) is
  1719. available in /pub/inls-ucsd/fractal-2.0.tar on on the same ftp site
  1720. (lyapunov.ucsd.edu). Note the file size before you ftp it: 1.3 MB.
  1721. This file also contains a paper by Yuval Fisher (see reference below),
  1722. and some executables and sample images. Reading this paper is required
  1723. to understand how the Young compression programs (see above) works.
  1724.  
  1725.  
  1726. References:
  1727.   A. Jacquin, 'Fractal image coding based on a theory of iterated
  1728.     contractive image transformations', Visual Comm. and Image
  1729.     Processing, vol SPIE-1360, 1990. (The best paper that explains
  1730.     the concept in a simple way.)
  1731.  
  1732.   A. Jacquin, "A Fractal Theory of Iterated Markov Operators with
  1733.     Applications to Digital Image Coding", PhD Thesis, Georgia Tech, 1989.
  1734.   It can be obtained from university microfilms for $35, phone 1-800-521-0600.
  1735.  
  1736.   M. Barnsley, L. Anson, "Graphics Compression Technology, SunWorld,
  1737.     October 1991, pp. 42-52.
  1738.   M.F. Barnsley, A. Jacquin, F. Malassenet, L. Reuter & A.D. Sloan,
  1739.     'Harnessing chaos for image synthesis', Computer Graphics,
  1740.     vol 22 no 4 pp 131-140, 1988.
  1741.   M.F. Barnsley, A.E. Jacquin, 'Application of recurrent iterated
  1742.     function systems to images', Visual Comm. and Image Processing,
  1743.     vol SPIE-1001, 1988.
  1744.   A. Jacquin, "Image Coding Based on a Fractal Theory of Iterated Contractive
  1745.     Image Transformations" p.18, January 1992 (Vol 1 Issue 1) of IEEE Trans
  1746.     on Image Processing.
  1747.   A.E. Jacquin, 'A novel fractal block-coding technique for digital
  1748.     images', Proc. ICASSP 1990.
  1749.   G.E. Oien, S. Lepsoy & T.A. Ramstad, 'An inner product space
  1750.     approach to image coding by contractive transformations',
  1751.     Proc. ICASSP 1991, pp 2773-2776.
  1752.   D.S. Mazel, Fractal Modeling of Time-Series Data, PhD Thesis,
  1753.     Georgia Tech, 1991.    (One dimensional, not pictures)
  1754.   S. A. Hollatz, "Digital image compression with two-dimensional affine
  1755.     fractal interpolation functions", Department of Mathematics and
  1756.     Statistics, University of Minnesota-Duluth, Technical Report 91-2.
  1757.     (a nuts-and-bolts how-to-do-it paper on the technique)
  1758.   Stark, J., "Iterated function systems as neural networks",
  1759.     Neural Networks, Vol 4, pp 679-690, Pergamon Press, 1991.
  1760.   Monro D M and Dudbridge F, "Fractal block coding of images",
  1761.     Electronics Letters 28(11):1053-1054 (1992)
  1762.   Beaumont J M, "Image data compression using fractal techniques",
  1763.     British Telecom Technological Journal 9(4):93-108 (1991)
  1764.   Fisher Y, "Fractal image compression", Siggraph 92
  1765.   Graf S, "Barnsley's Scheme for the Fractal Encoding of Images",
  1766.     Journal Of Complexity, V8, 72-78 (1992).
  1767.  
  1768. Books:
  1769.     The Fractal Transform,
  1770.     Michael F. Barnsley and Louisa F. Anson
  1771.     ISBN 0-86720-218-1, ca. 250 pp, $49.95
  1772.  
  1773.     Fractal Image Compression
  1774.     Michael F. Barnsley and Lyman P. Hurd
  1775.     ISBN 0-86720-457-5, ca. 250 pp., $49.95
  1776.     Copies can be ordered directly from the publisher by sending a message
  1777.     to kpeters@math.harvard.edu with name, address and a Mastercard or
  1778.     Visa card number with expiration date.
  1779.  
  1780. Barnsley's company is:
  1781.  
  1782. Iterated Systems, Inc.
  1783. 5550A Peachtree Parkway, Suite 650
  1784. Norcross, GA  30092
  1785. tel: 404-840-0310 or 1-800-4FRACTL
  1786. fax: 404-840-0806
  1787.  
  1788. ------------------------------------------------------------------------------
  1789.  
  1790. Subject: [18] I need specs and source for TIFF and CCITT group 4 Fax
  1791.  
  1792.  
  1793. Specs for Group 3 and 4 image coding (group 3 is very similar to group 4)
  1794. are in CCITT (1988) volume VII fascicle VII.3. They are recommendations
  1795. T.4 and T.6 respectively. There is also an updated spec contained in 1992
  1796. recommendations T.1 to T.6.
  1797.  
  1798. CCITT specs are available by anonymous ftp (see above answer on
  1799. V.42bis).  The T.4 and T.6 specs are in the directory
  1800. /computing/ccitt/standards/ccitt/1988/ascii, files 7_3_01.txt.Z and
  1801. 7_3_02.txt.Z respectively.
  1802.  
  1803. The following paper covers T.4, T.6 and JBIG:
  1804.  
  1805.   "Review of standards for electronic imaging for facsimile systems"
  1806.   in Journal of Electronic Imaging, Vol. 1, No. 1, pp. 5-21, January 1992.
  1807.  
  1808.  
  1809. Source code can be obtained as part of a TIFF toolkit - TIFF image
  1810. compression techniques for binary images include CCITT T.4 and T.6:
  1811.  
  1812.     sgi.com:/graphics/tiff/v3.2.tar.Z    [192.48.153.1]
  1813.     Contact: sam@sgi.com
  1814.  
  1815. There is also a companion compressed tar file (v3.0pics.tar.Z) that
  1816. has sample TIFF image files. A draft of TIFF 6.0 is in TIFF6.ps.Z.
  1817. Concerning JPEG compression in TIFF 6.0, Tom Lane <tgl+@cs.cmu.edu> adds:
  1818.  
  1819.   The TIFF document won't do you much good unless you also have the official
  1820.   JPEG standard.  That, you have to buy from ANSI or your national ISO member
  1821.   organization (DIN over there, I suppose).
  1822.  
  1823.   Worse, the TIFF 6.0 spec has a number of serious problems in its JPEG
  1824.   features.  A clarification note will probably be needed to ensure that TIFF
  1825.   JPEG files are compatible across different implementations.  I can't in good
  1826.   faith recommend that anyone use TIFF-JPEG until these problems are resolved.
  1827.  
  1828.  
  1829. Software for reading and writing CCITT Group 3 and 4 images is
  1830. also available in directory merry.cs.monash.edu.au:/pub/alanf/TIFF_FAX
  1831. (130.194.67.101). Contact: Alan Finlay <alanf@bruce.cs.monash.edu.au>.
  1832.  
  1833.  
  1834. See also question 54 below.
  1835.  
  1836. ------------------------------------------------------------------------------
  1837.  
  1838. Subject: [19] What is JPEG?
  1839.  
  1840.  
  1841. JPEG (pronounced "jay-peg") is a standardized image compression mechanism.
  1842. JPEG stands for Joint Photographic Experts Group, the original name of the
  1843. committee that wrote the standard.  JPEG is designed for compressing either
  1844. full-color or gray-scale digital images of "natural", real-world scenes.
  1845. It does not work so well on non-realistic images, such as cartoons or line
  1846. drawings.
  1847.  
  1848. JPEG does not handle black-and-white (1-bit-per-pixel) images, nor does it
  1849. handle motion picture compression.  Standards for compressing those types
  1850. of images are being worked on by other committees, named JBIG and MPEG
  1851. respectively.
  1852.  
  1853. Regular JPEG is "lossy", meaning that the image you get out of decompression
  1854. isn't quite identical to what you originally put in.  The algorithm achieves
  1855. much of its compression by exploiting known limitations of the human eye,
  1856. notably the fact that small color details aren't perceived as well as small
  1857. details of light-and-dark.  Thus, JPEG is intended for compressing images that
  1858. will be looked at by humans.  If you plan to machine-analyze your images, the
  1859. small errors introduced by JPEG may be a problem for you, even if they are
  1860. invisible to the eye.  The JPEG standard includes a separate lossless mode,
  1861. but it is not widely used and does not give nearly as much compression as the
  1862. lossy mode.
  1863.  
  1864. Question 75 "Introduction to JPEG" (in part 2 of this FAQ) gives an overview
  1865. of how JPEG works and provides references for further reading.  Also see the
  1866. JPEG FAQ article, which covers JPEG software and usage hints.  The JPEG FAQ is
  1867. posted regularly in news.answers by Tom Lane <tgl+@cs.cmu.edu>.  (See question
  1868. 53 "Where are FAQ lists archived" if this posting has expired at your site.)
  1869.  
  1870. For JPEG hardware, see item 85 in part 3 of this FAQ.
  1871.  
  1872. ------------------------------------------------------------------------------
  1873.  
  1874. Subject: [20] I am looking for source of an H.261 codec and MPEG
  1875.  
  1876.  
  1877. The H.261 spec is available on src.doc.ic.ac.uk in
  1878. /computing/ccitt/standards/ccitt/1992/h/h261.doc.Z (or h261.rtf.Z).
  1879.  
  1880.  
  1881. For H.261 hardware, see item 85 in part 3 of this FAQ.
  1882.  
  1883. from Thierry TURLETTI <turletti@sophia.inria.fr>:
  1884.  
  1885. We have implemented a software version of H.261 codec. 
  1886. It runs on top of UNIX and X-Windows. The coder uses the simple video capture
  1887. board "VideoPix" provided by SUN for the SparcStation. The output is directed
  1888. towards a standard TCP connection, instead of the leased lines or switched 
  1889. circuits for which regular H.261 codecs are designed. This enable us to test
  1890. video conferences over regular internet connections.
  1891. We have to polish it a bit, but the first release is now available by anonymous
  1892. ftp from avahi.inria.fr, in "/pub/h261.tar.Z".
  1893.  
  1894.  
  1895. from Andy Hung <achung@cs.stanford.edu>:
  1896.  
  1897. Public domain UNIX C source code to do both image and image sequence
  1898. compression and decompression is available by anonymous ftp:
  1899.  
  1900. MPEG-I   havefun.stanford.edu:pub/mpeg/MPEGv1.1.tar.Z
  1901. CCITT H.261(P*64) havefun.stanford.edu:pub/p64/P64v1.1.tar.Z
  1902. JPEG   havefun.stanford.edu:pub/jpeg/JPEGv1.1.tar.Z
  1903.  
  1904. These codecs operate on raw raster scanned images.
  1905.  
  1906. A software program to display raw raster-scanned YUV images and image
  1907. sequences on X grayscale or color monitors is provided by a program in
  1908. the anonymous ftp directory havefun.stanford.edu pub/cv/CVv1.1.tar.Z.
  1909. If you are using the codecs above, we recommend that you ftp this file
  1910. over as well.
  1911.  
  1912. The source code has been compiled on DEC and SUN workstations.
  1913. Caution: the P64 codec has not been tested compliant (any available
  1914. p64 video streams would be much appreciated - please let us know at
  1915. achung@cs.stanford.edu).  The other codecs have been tested with
  1916. streams from other encoders.
  1917.  
  1918. We also have some IPB MPEG-I video coded streams in pub/mpeg/*.mpg;
  1919. and P64 video streams in pub/p64/*.p64 that we have generated using
  1920. our codecs.
  1921.  
  1922. For a more complete description see the file
  1923. havefun.stanford.edu:pub/README.
  1924.  
  1925. ------------------------------------------------------------------------------
  1926.  
  1927. Subject: [25] Fast DCT (Discrete Cosine Transform) algorithms
  1928.  
  1929.  
  1930. Many image compression methods, including the JPEG, MPEG, and H.261 standards,
  1931. are based on the discrete cosine transform.  A good overall introduction to
  1932. DCT is the book "Discrete Cosine Transform---Algorithms, Advantages,
  1933. Applications" by K.R. Rao and P. Yip (Academic Press, London, 1990).
  1934. This has an extensive, though already dated, bibliography.
  1935.  
  1936. Here are some newer references provided by Tom Lane <tgl+@cs.cmu.edu>.
  1937. Most of these are in IEEE journals or conference proceedings, notably
  1938. ICASSP = IEEE Intl. Conf. on Acoustics, Speech, and Signal Processing.
  1939. ICCAS = IEEE Intl. Conf. on Circuits and Systems.
  1940. DCC = Data Compression Conference.
  1941.  
  1942. Polynomial Transform Computation of the 2-D DCT, Duhamel & Guillemot,
  1943.   ICASSP '90 p. 1515.
  1944. A Forward-Mapping Realization of the Inverse DCT, McMillan & Westover,
  1945.   DCC '92 p. 219.
  1946. A Fast Algorithm for 2-D DCT, Cho, Yun & Lee, ICASSP '91 p. 2197.
  1947. Fast Algorithm and Implementation of 2-D DCT, Cho & Lee, Tr. CAS v38 p. 297.
  1948. A DCT Chip based on a new Structured and Computationally Efficient DCT
  1949.   Algorithm, Duhamel, Guillemot & Carlach, ICCAS '90 p. 77.
  1950. Trade-offs in the Computation of Mono- and Multi-dimensional DCTs,
  1951.   Vetterli, Duhamel & Guillemot, ICASSP '89 p. 999.
  1952. Practical Fast 1-D DCT Algorithms with 11 Multiplications,
  1953.   Loeffler, Ligtenberg & Moschytz, ICASSP '89 p. 988.
  1954. New Scaled DCT Algorithms for Fused Multiply/Add Architectures,
  1955.   Linzer & Feig, ICASSP '91 p. 2201.
  1956. Fast Algorithms for the 2-D Discrete Cosine Transform, Kamangar & Rao,
  1957.   IEEE Tr. Computers, v C-31 p. 899.
  1958. Fast 2-D Discrete Cosine Transform, Vetterli, ICASSP '85 p. 1538.
  1959. A Two-Dimensional Fast Cosine Transform, Haque, Tr. ASSP v ASSP-33 p. 1532.
  1960. Real-Time Parallel and Fully Pipelined 2-D DCT Lattice Structures with
  1961.   Application to HDTV Systems, Chiu & Liu, Tr. CAS for Video Tech, v 2 p. 25.
  1962.  
  1963.  
  1964. The free JPEG code (jpegsrc.v4.tar.Z) has one of the fastest implementations
  1965. of the DCT code.  It's all in the files jfwddct.c and jrevdct.c (which do
  1966. the dct and idct, respectively). See item 15 for ftp locations.
  1967.  
  1968. ------------------------------------------------------------------------------
  1969.  
  1970. Subject: [26] Are there algorithms and standards for audio compression?
  1971.  
  1972.  
  1973. Yes. See the introduction to MPEG given in part 2 of this FAQ.
  1974.  
  1975. A lossless compressor for 8bit and 16bit audio data (.au) is available by
  1976. anonymous ftp at svr-ftp.eng.cam.ac.uk:/pub/misc/shorten-1.03.shar. It works
  1977. by using Huffman coding of prediction residuals.  Compression is generally
  1978. better than that obtained by applying general purpose compression utilities
  1979. to audio files.
  1980.  
  1981. Copied from the comp.dsp FAQ posted by guido@cwi.nl (Guido van Rossum):
  1982.  
  1983.   Strange though it seems, audio data is remarkably hard to compress
  1984.   effectively.  For 8-bit data, a Huffman encoding of the deltas between
  1985.   successive samples is relatively successful.  For 16-bit data,
  1986.   companies like Sony and Philips have spent millions to develop
  1987.   proprietary schemes.
  1988.  
  1989.   Public standards for voice compression are slowly gaining popularity,
  1990.   e.g. CCITT G.721 and G.723 (ADPCM at 32 and 24 kbits/sec).  (ADPCM ==
  1991.   Adaptive Delta Pulse Code Modulation.)  Free source code for a *fast*
  1992.   32 kbits/sec ADPCM (lossy) algorithm is available by ftp from ftp.cwi.nl
  1993.   as /pub/adpcm.shar.  (** NOTE: if you are using v1.0, you should get
  1994.   v1.1, released 17-Dec-1992, which fixes a serious bug -- the quality
  1995.   of v1.1 is claimed to be better than uLAW **)
  1996.  
  1997.   (Note that U-LAW and silence detection can also be considered
  1998.   compression schemes.)
  1999.  
  2000. A note on u-law from Markus Kuhn <mskuhn@immd4.informatik.uni-erlangen.de>:
  2001.  
  2002.   u-law (more precisely (greek mu)-law or 5-law if you have an 8-bit
  2003.   ISO terminal) is more an encoding then a compression method,
  2004.   although a 12 to 8 bit reduction is normally part of the encoding.
  2005.   The official definition is CCITT recommendation G.711. If you want
  2006.   to know how to get CCITT documents, check the Standards FAQ
  2007.   posted to news.answers or get the file standards-faq by ftp in
  2008.   directory rtfm.mit.edu:/pub/usenet/news.answers.
  2009.  
  2010.  
  2011. See also the comp.dsp FAQ for more information on:
  2012.  
  2013. - The U.S. DoD's Federal-Standard-1016 based 4800 bps code excited linear
  2014.   prediction voice coder version 3.2 (CELP 3.2)
  2015. - The U.S. DoD's Federal-Standard-1015/NATO-STANAG-4198 based 2400 bps
  2016.   linear prediction coder version 53 (LPC-10e v53)
  2017. - Realtime DSP code and hardware for FS-1015 and FS-1016
  2018.  
  2019. You can find the comp.dsp FAQ in comp.dsp or news.answers with subject:
  2020. "FAQ: Audio File Formats" or by ftp on rtfm.mit.edu
  2021. in /pub/usenet/news.answers/audio-fmts/part1.
  2022.  
  2023.  
  2024. CELP C code for Sun SPARCs is available for anonymous ftp at
  2025. furmint.nectar.cs.cmu.edu, in directory celp.audio.compression.
  2026.  
  2027.  
  2028. Recommended reading:
  2029.   Digital Coding of Waveforms: Principles and Applications to Speech and
  2030.   Video.  N. S. Jayant and Peter Noll.  Prentice-Hall, 1984, ISBN
  2031.   0-13-211913-7.
  2032.  
  2033.  
  2034. from Markus Kuhn <mskuhn@immd4.informatik.uni-erlangen.de>:
  2035.  
  2036.   One highest quality sound compression format is called ASPEC and has
  2037.   been developped by a team at the Frauenhofer Institut in Erlangen (Germany)
  2038.   and others.
  2039.  
  2040.   ASPEC produces CD like quality and offers several bitrates, one is
  2041.   128 kbit/s. It is a lossy algorithm that throws away frequencys that
  2042.   aren't registered in the human cochlea in addition to sophisticated
  2043.   entropy coding. The 64 kbit/s ASPEC variant might soon bring hifi
  2044.   quality ISDN phone connections. It has been implemented on standard DSPs.
  2045.  
  2046.   The Layer 3 MPEG audio compression standard now contains what is officially
  2047.   called the best parts of the ASPEC and MUSICAM algorithms. A reference is:
  2048.  
  2049.     K.Brandenburg, G.Stoll, Y.F.Dehery, J.D.Johnston, L.v.d.Kerkhof,
  2050.     E.F.Schroeder: "The ISO/MPEG-Audio Codec: A Generic Standard for Coding
  2051.     of High Quality Digital Audio",
  2052.     92nd. AES-convention, Vienna 1992, preprint 3336
  2053.  
  2054.  
  2055. from Jutta Degener <jutta@cs.tu-berlin.de> and Carsten Bormann
  2056. <cabo@cs.tu-berlin.de>:
  2057.  
  2058.   GSM 06.10 13 kbit/s RPE/LTP speech compression available
  2059.   --------------------------------------------------------
  2060.  
  2061.   The Communications and Operating Systems Research Group (KBS) at the
  2062.   Technische Universitaet Berlin is currently working on a set of
  2063.   UNIX-based tools for computer-mediated telecooperation that will be
  2064.   made freely available.
  2065.  
  2066.   As part of this effort we are publishing an implementation of the
  2067.   European GSM 06.10 provisional standard for full-rate speech
  2068.   transcoding, prI-ETS 300 036, which uses RPE/LTP (residual pulse
  2069.   excitation/long term prediction) coding at 13 kbit/s.
  2070.  
  2071.   GSM 06.10 compresses frames of 160 13-bit samples (8 kHz sampling
  2072.   rate, i.e. a frame rate of 50 Hz) into 260 bits; for compatibility
  2073.   with typical UNIX applications, our implementation turns frames of 160
  2074.   16-bit linear samples into 33-byte frames (1650 Bytes/s).
  2075.   The quality of the algorithm is good enough for reliable speaker
  2076.   recognition; even music often survives transcoding in recognizable 
  2077.   form (given the bandwidth limitations of 8 kHz sampling rate).
  2078.  
  2079.   Version 1.0 of the implementation is available per anonymous ftp from
  2080.   tub.cs.tu-berlin.de as /pub/tubmik/gsm-1.0.tar.Z.  Questions and bug
  2081.   reports should be directed to toast@tub.cs.tu-berlin.de.  
  2082.   Note that the distribution is not available via E-mail (please use one
  2083.   of the ftp-via-E-mail servers).
  2084.  
  2085.  
  2086. from Bob Kimball <rkimball@qualcomm.com>:
  2087.  
  2088.   I work for Qualcomm Inc. and we are designing a digital cellular telephone
  2089.   system.  Our phone uses our variable rate vocoder (QCELP) which is designed
  2090.   for speach and compresses 64Kb/s speach to 8Kb/s through 1Kb/s with 8Kb/s
  2091.   being full rate and 1Kb/s for 1/8 rate speach.  It works great for speach.
  2092.  
  2093.   The QCELP process is documented in our Common Air Interface (CAI) which is
  2094.   available for anonymous ftp from lorien.qualcomm.com in /pub/cdma
  2095.   each chapter is a postscript file.  The vocoder is described in appendix A.
  2096.   The whole document is quite large.  This is the document which is currently
  2097.   going through the TIA standard committee so it is not a final version.  The
  2098.   appendix on the vocoder should be almost identical to the final version...
  2099.   whenever that comes out.
  2100.  
  2101.  
  2102. from Nicola Ferioli <ser1509@cdc835.cdc.polimi.it>:
  2103.  
  2104.   On wsmr-simtel20.army.mil, pd1:<msdos.sound>
  2105.   VOCPAK10.ZIP    Lossless 8-bit sound file compressor
  2106.  
  2107.   VOCPACK is a compressor/decompressor for 8-bit digital sound using a
  2108.   lossless algorithm; it is useful to save disk space without degrading
  2109.   sound quality.  It can compress signed and unsigned data, sampled at any
  2110.   rate, mono or stereo.  Since the method used is not lossy, it isn't
  2111.   necessary to strip file headers before compressing.
  2112.  
  2113.   VOCPACK was developed for use with .VOC (SoundBlaster) and .WAV (Windows)
  2114.   files, but any 8-bit sound can be compressed since the program takes no
  2115.   assumptions about the file structure.
  2116.  
  2117.   The typical compression ratio obtained goes from 0,8 for files sampled at
  2118.   11 KHz to 0,4 for 44 Khz files.  The best results are obtained with 44 KHz
  2119.   sounds (mono or stereo): general-purpose archivers create files that can be
  2120.   twice longer than the output of VOCPACK.  You can obtain smaller values
  2121.   using lossy compressors but if your goal is to keep the sound quality
  2122.   unaltered you should use a lossless program like VOCPACK.
  2123.  
  2124. ------------------------------------------------------------------------------
  2125.  
  2126. Subject: [30] My archive is corrupted!
  2127.  
  2128.  
  2129. The two most common reasons for this are
  2130.  
  2131. (1) failing to use the magic word "tenex" (when connected to SIMTEL20 and
  2132.     other TOPS20 systems) or "binary" (when connected to UNIX systems) when
  2133.     transferring the file from an ftp site to your host machine.  The
  2134.     reasons for this are technical and boring.  A synonym for "tenex" is
  2135.     "type L 8", in case your ftp doesn't know what "tenex" means.
  2136.  
  2137. (2) failing to use an eight-bit binary transfer protocol when transferring
  2138.     the file from the host to your PC.  Make sure to set the transfer type
  2139.     to "binary" on both your host machine and your PC.
  2140.  
  2141. ------------------------------------------------------------------------------
  2142.  
  2143. Subject: [31] pkunzip reports a CRC error!
  2144.  
  2145.  
  2146. The portable zip 1.1 contains many workarounds for undocumented restrictions
  2147. in pkunzip. Compatibility is ensured for pkunzip 1.10 only. All previous
  2148. versions (pkunzip 1.0x) have too many bugs and cannot be supported. This
  2149. includes Borland unzip.
  2150.  
  2151. So if your pkunzip reports a CRC error, check that you are not using
  2152. an obsolete version. Get either pkzip 2.04g or unzip 5.0p1 (see question
  2153. 2 above for ftp sites). To generate zip files compatible with pkunzip 1.10,
  2154. use zip 1.1 (see item 2 above for ftp site).
  2155.  
  2156. ------------------------------------------------------------------------------
  2157.  
  2158. Subject: [32] VMS zip is not compatible with pkzip!
  2159.  
  2160.  
  2161. The problem is most likely in the file transfer program.
  2162.  
  2163. Many use kermit to transfer zipped files between PC and VMS VAX.  The
  2164. following VMS kermit settings make VMS-ZIP compatible with PKZIP:
  2165.  
  2166.                                              VMS kermit        PC kermit
  2167.                                            ---------------   --------------
  2168.  
  2169. Uploading PKZIPped file to be UNZIPped:    set fi ty fixed    set fi ty bi
  2170. Downloading ZIPped file to be PKUNZIPped:  set fi ty block    set fi ty bi
  2171.  
  2172. If you are not using kermit, transfer a file created by pkzip on MSDOS
  2173. to VMS, transfer it back to your PC and check that pkunzip can extract it.
  2174.  
  2175. ------------------------------------------------------------------------------
  2176.  
  2177. Subject: [33] I have a problem with Stacker!
  2178.  
  2179.  
  2180. The newsgroup comp.compression is *not* the appropriate place to
  2181. discuss about one specific program on one specific operating system.
  2182. Since you have bought a legal copy of Stacker, you have the
  2183. documentation of your product; please read it. If you can't find the
  2184. answer in the documentation, please report the problem to the Stac
  2185. customer support.  If you really feel that the net has to know about
  2186. your problem, please post in one of the MSDOS newsgroups, such as
  2187. comp.os.msdos.apps or comp.binaries.ibm.pc.d.
  2188.  
  2189. ------------------------------------------------------------------------------
  2190.  
  2191. Subject: [50] What is this 'tar' compression program?
  2192.  
  2193.  
  2194. tar is not a compression program. It just combines several files
  2195. into one, without compressing them. tar file are often compressed with
  2196. 'compress', resulting in a .tar.Z file. See question 2, file type .tar.Z.
  2197. GNU tar has the capability to (de)compress files as well.
  2198.  
  2199. When you have to archive a lot of very small files, it is often
  2200. preferable to create a single .tar file and compress it, than to
  2201. compress the individual files separately. The compression program can
  2202. thus take advantage of redundancy between separate files.  The
  2203. disadvantage is that you must uncompress the whole .tar file to
  2204. extract any member.
  2205.  
  2206. ------------------------------------------------------------------------------
  2207.  
  2208. Subject: [51] I need a CRC algorithm
  2209.  
  2210.  
  2211. As its name implies (Cyclic Redundancy Check) a crc adds redundancy
  2212. whereas the topic of this group is to remove it. But since this
  2213. question comes up often, here is some code (by Rob Warnock <rpw3@sgi.com>).
  2214.  
  2215. The following C code does CRC-32 in BigEndian/BigEndian byte/bit order.
  2216. That is, the data is sent most significant byte first, and each of the bits
  2217. within a byte is sent most significant bit first, as in FDDI. You will need
  2218. to twiddle with it to do Ethernet CRC, i.e., BigEndian/LittleEndian byte/bit
  2219. order. [Left as an exercise for the reader.]
  2220.  
  2221. The CRCs this code generates agree with the vendor-supplied Verilog models
  2222. of several of the popular FDDI "MAC" chips.
  2223.  
  2224. u_long crc32_table[256];
  2225. /* Initialized first time "crc32()" is called. If you prefer, you can
  2226.  * statically initialize it at compile time. [Another exercise.]
  2227.  */
  2228.  
  2229. u_long crc32(u_char *buf, int len)
  2230. {
  2231.         u_char *p;
  2232.         u_long  crc;
  2233.  
  2234.         if (!crc32_table[1])    /* if not already done, */
  2235.                 init_crc32();   /* build table */
  2236.         crc = 0xffffffff;       /* preload shift register, per CRC-32 spec */
  2237.         for (p = buf; len > 0; ++p, --len)
  2238.                 crc = (crc << 8) ^ crc32_table[(crc >> 24) ^ *p];
  2239.         return ~crc;            /* transmit complement, per CRC-32 spec */
  2240. }
  2241.  
  2242. /*
  2243.  * Build auxiliary table for parallel byte-at-a-time CRC-32.
  2244.  */
  2245. #define CRC32_POLY 0x04c11db7     /* AUTODIN II, Ethernet, & FDDI */
  2246.  
  2247. init_crc32()
  2248. {
  2249.         int i, j;
  2250.         u_long c;
  2251.  
  2252.         for (i = 0; i < 256; ++i) {
  2253.                 for (c = i << 24, j = 8; j > 0; --j)
  2254.                         c = c & 0x80000000 ? (c << 1) ^ CRC32_POLY : (c << 1);
  2255.                 crc32_table[i] = c;
  2256.         }
  2257. }
  2258.  
  2259. See also ftp.uni-erlangen.de:/pub/doc/ISO/english/async-HDLC, and the
  2260. source of all archivers, such as the file makecrc.c in the sources of
  2261. zip 1.9 (see item 2).
  2262.  
  2263. ------------------------------------------------------------------------------
  2264.  
  2265. Subject: [52] What about those people who continue to ask frequently asked
  2266.               questions in spite of the frequently asked questions document?
  2267.  
  2268.  
  2269. Just send them a polite mail message, referring them to this document.
  2270. There is no need to flame them on comp.compression.  That would just
  2271. add more noise to this group.  Posted answers that are in the FAQ are
  2272. just as annoying as posted questions that are in the FAQ.
  2273.  
  2274. ------------------------------------------------------------------------------
  2275.  
  2276. Subject: [53] Where are FAQ lists archived?
  2277.  
  2278.  
  2279. Many are crossposted to news.answers.  That newsgroup should have a
  2280. long expiry time at your site; if not, talk to your sysadmin.
  2281.  
  2282. FAQ lists are available by anonymous FTP from rtfm.mit.edu.
  2283. The comp.compression FAQ that you are reading is in directory
  2284.    /pub/usenet/news.answers/compression-faq
  2285.  
  2286. If you don't have FTP access, you can access the archives by mail
  2287. server.  Send an email message to mail-server@rtfm.mit.edu
  2288. containing the commands
  2289.     send usenet/news.answers/compression-faq/part1
  2290.     send usenet/news.answers/compression-faq/part2
  2291.     send usenet/news.answers/compression-faq/part3
  2292. For instructions, send an email message to the same address with the
  2293. words "help" and "index" (no quotes) on separate lines. If you don't
  2294. get a reply, check your return address, or add a line such as
  2295.     path myname@foo.edu
  2296.  
  2297. ------------------------------------------------------------------------------
  2298.  
  2299. Subject: [54] I need specs for graphics formats
  2300.  
  2301.  
  2302. Have a look in directory /pub/graphics.formats on zamenhof.cs.rice.edu.
  2303. It contains descriptions of gif, tiff, fits, etc...
  2304.  
  2305. See also the FAQ list for comp.graphics. See item 53 for an ftp site.
  2306.  
  2307. ------------------------------------------------------------------------------
  2308.  
  2309. Subject: [55] Where can I find Lenna and other images?
  2310.  
  2311.  
  2312. A bunch of standard images (lenna, baboon, cameraman, crowd, moon
  2313. etc..) are on ftp site eedsp.gatech.edu (130.207.226.2) in directory
  2314. /database/images. The images are in 256-level grayshades (256x256
  2315. pixels, 256 "colors").
  2316.  
  2317. The site ipl.rpi.edu (128.113.14.50) has standard images in two
  2318. directories:
  2319.    ipl.rpi.edu:/pub/image/still/usc 
  2320.    ipl.rpi.edu:/pub/image/still/canon
  2321. (The directory /pub/image/sequence has been taken offline because of
  2322. possible copyright problems.)
  2323.  
  2324. In each of those directories are the following directories:
  2325.    bgr     - 24 bit blue, green, red
  2326.    color   - 24 bit red, green, blue
  2327.    gray    - 8 bit grayscale uniform weighted
  2328.    gray601 - 8 bit grayscale CCIR-601 weighted
  2329.  
  2330. And in these directories are the actual images.  
  2331.  
  2332. For example, the popular lena image is in
  2333.    ipl.rpi.edu:/pub/image/still/usc/color/lena  # 24 bit RGB
  2334.    ipl.rpi.edu:/pub/image/still/usc/bgr/lena    # 24 bit BGR
  2335.    ipl.rpi.edu:/pub/image/still/usc/gray/lena   # 8 bit gray
  2336.  
  2337. All of the images are in Sun rasterfile format.  You can use the pbm
  2338. utilities to convert them to whatever format is most convenient.
  2339. [pbm is available in ftp.ee.lbl.gov:/pbmplus*.tar.Z].
  2340. Questions about the ipl archive should be sent to help@ipl.rpi.edu.
  2341.  
  2342. Rodney Peck <rodney@balltown.cma.com> is interested in some method
  2343. of establishing a canonical ftp database of images but does not have
  2344. the resources to provide an ftp site for that database. Send suggestions to
  2345. rodney@balltown.cma.com.
  2346.  
  2347.  
  2348. Beware: the same image often comes in many different forms, at
  2349. different resolutions, etc... The original lenna image is 512 wide,
  2350. 512 high, 8 bits per pel, red, green and blue fields.  Gray-scale
  2351. versions of Lenna have been obtained in two different ways from the
  2352. original:
  2353.  (1) Using the green field as a gray-scale image, and
  2354.  (2) Doing an RGB->YUV transformation and saving the Y component.
  2355. Method (1) makes it easier to compare different people's results since
  2356. everyone's version should be the same using that method.  Method (2)
  2357. produces a more correct image.
  2358.  
  2359. For the curious: 'lena' or 'lenna' is a digitized Playboy centerfold,
  2360. from November 1972. (Lenna is the spelling in Playboy, Lena is the
  2361. Swedish spelling of the name.) Lena Soderberg (ne Sjooblom) was last
  2362. reported living in her native Sweden, happily married with three kids
  2363. and a job with the state liquor monopoly.  In 1988, she was
  2364. interviewed by some Swedish computer related publication, and she was
  2365. pleasantly amused by what had happened to her picture.  That was the
  2366. first she knew of the use of that picture in the computer business.
  2367.  
  2368. The editorial in the January 1992 issue of Optical Engineering (v. 31
  2369. no. 1) details how Playboy has finally caught on to the fact that
  2370. their copyright on Lenna Sjooblom's photo is being widely infringed.
  2371. It sounds as if you will have to get permission from Playboy to
  2372. publish it in the future.
  2373.  
  2374.  
  2375. Note on the CCITT test images, by Robert Estes <estes@eecs.ucdavis.edu>:
  2376.  
  2377. The ccitt files are in ipl.rpi.edu:/image-archive/bitmap/ccitt
  2378. (128.113.14.50). They are named ccitt-n.ras.Z where n goes from 1 to 8.
  2379. Each file has an accompanying doc file called ccitt-n.ras.doc which
  2380. describes the image file. Here's the doc file for ccitt-1.ras:
  2381.  
  2382. Name ccitt-1.ras
  2383. Size 1728 x 2376 x 1
  2384. Type 1 bit standard format sun rasterfile 
  2385. Keywords binary standard image 1 bit fax
  2386. Description
  2387. One of eight images from the standard binary CCITT test image set.
  2388.  
  2389. This set is commonly used to compare binary image compression
  2390. techniques. The images are are 1728x2376 pixels.
  2391.  
  2392. ------------------------------------------------------------------------------
  2393.  
  2394. Subject: [56] I am looking for a message digest algorithm
  2395.  
  2396.  
  2397. Look on the ftp site rsa.com, in directory /pub. MD4 and MD5 are there.
  2398. This question would be more appropriate on sci.crypt.
  2399.  
  2400.  
  2401.  
  2402.           End of part 1 of the comp.compression faq.
  2403. Archive-name: compression-faq/part2
  2404. Last-modified: Feb 9th, 1993
  2405.  
  2406. This file is part 2 of a set of Frequently Asked Questions for the
  2407. groups comp.compression and comp.compression.research.
  2408. If you did not get part 1 or 3, you can get them by ftp
  2409. on rtfm.mit.edu in directory
  2410.    /pub/usenet/news.answers/compression-faq
  2411.  
  2412. If you don't want to see this FAQ regularly, please add the subject
  2413. line to your kill file. If you have corrections or suggestions for
  2414. this FAQ, send them to Jean-loup Gailly <jloup@chorus.fr>.  Thank you.
  2415.  
  2416. Contents
  2417. ========
  2418.  
  2419. Part 2: (Long) introductions to data compression techniques
  2420.  
  2421. [70] Introduction to data compression (long)
  2422.        Huffman and Related Compression Techniques
  2423.        Arithmetic Coding
  2424.        Substitutional Compressors
  2425.           The LZ78 family of compressors
  2426.           The LZ77 family of compressors
  2427.  
  2428. [71] Introduction to MPEG (long)
  2429.        What is MPEG?
  2430.        Does it have anything to do with JPEG?
  2431.        Then what's JBIG and MHEG?
  2432.        What has MPEG accomplished?
  2433.        So how does MPEG I work?
  2434.        What about the audio compression?
  2435.        So how much does it compress?
  2436.        What's phase II?
  2437.        When will all this be finished?
  2438.        How do I join MPEG?
  2439.        How do I get the documents, like the MPEG I draft?
  2440.  
  2441. [72] What is wavelet theory?
  2442. [73] What is the theoretical compression limit?
  2443. [74] Introduction to JBIG
  2444. [75] Introduction to JPEG
  2445.  
  2446. Part 3: (Long) list of image compression hardware
  2447.  
  2448. [85] Image compression hardware
  2449. [99] Acknowledgments
  2450.  
  2451.  
  2452. Search for "Subject: [#]" to get to question number # quickly. Some news
  2453. readers can also take advantage of the message digest format used here.
  2454.  
  2455. ------------------------------------------------------------------------------
  2456.  
  2457. Subject: [70] Introduction to data compression (long)
  2458.  
  2459.  
  2460. Written by Peter Gutmann <pgut1@cs.aukuni.ac.nz>.
  2461.  
  2462.  Huffman and Related Compression Techniques
  2463.  ------------------------------------------
  2464.  
  2465.   *Huffman compression* is a statistical data compression technique which 
  2466. gives a reduction in the average code length used to represent the symbols of 
  2467. a alphabet.  The Huffman code is an example of a code which is optimal in the 
  2468. case where all symbols probabilities are integral powers of 1/2.  A Huffman 
  2469. code can be built in the following manner:
  2470.  
  2471.   (1) Rank all symbols in order of probability of occurrence.
  2472.     
  2473.   (2) Successively combine the two symbols of the lowest probability to form
  2474.       a new composite symbol; eventually we will build a binary tree where
  2475.       each node is the probability of all nodes beneath it.
  2476.  
  2477.   (3) Trace a path to each leaf, noticing the direction at each node.
  2478.  
  2479.   For a given frequency distribution, there are many possible Huffman codes,
  2480. but the total compressed length will be the same. It is possible to
  2481. define a 'canonical' Huffman tree, that is, pick one of these alternative
  2482. trees. Such a canonical tree can then be represented very compactly, by
  2483. transmitting only the bit length of each code. This technique is used
  2484. in most archivers (pkzip, lha, zoo, arj, ...).
  2485.  
  2486.  
  2487.   A technique related to Huffman coding is *Shannon-Fano coding*, which was 
  2488. suggested by Shannon and Weaver in 1949 and modified by Fano in 1961.  It 
  2489. works as follows:
  2490.  
  2491.   (1) Divide the set of symbols into two equal or almost equal subsets
  2492.       based on the probability of occurrence of characters in each
  2493.       subset.  The first subset is assigned a binary zero, the second
  2494.       a binary one.
  2495.  
  2496.   (2) Repeat step (1) until all subsets have a single element.
  2497.  
  2498. The algorithm used to create the Huffman codes is bottom-up, and the
  2499. one for the Shannon-Fano codes is top-down. Huffman encoding always
  2500. generates optimal codes, Shannon-Fano sometimes uses a few more bits.
  2501.  
  2502.  
  2503.  Arithmetic Coding
  2504.  -----------------
  2505.  
  2506.   It would appear that Huffman or Shannon-Fano coding is the perfect
  2507. means of compressing data.  However, this is *not* the case.  As
  2508. mentioned above, these coding methods are optimal when and only when
  2509. the symbol probabilities are integral powers of 1/2, which is usually
  2510. not the case.
  2511.  
  2512.   The technique of *arithmetic coding* does not have this restriction:
  2513. It achieves the same effect as treating the message as one single unit
  2514. (a technique which would, for Huffman coding, require enumeration of
  2515. every single possible message), and thus attains the theoretical
  2516. entropy bound to compression efficiency for any source.
  2517.  
  2518.   Arithmetic coding works by representing a number by an interval of real 
  2519. numbers between 0 and 1.  As the message becomes longer, the interval needed 
  2520. to represent it becomes smaller and smaller, and the number of bits needed to 
  2521. specify that interval increases.  Successive symbols in the message reduce 
  2522. this interval in accordance with the probability of that symbol. The more
  2523. likely symbols reduce the range by less, and thus add fewer bits to the   
  2524. message.
  2525.  
  2526.      1                                             Codewords
  2527.     +-----------+-----------+-----------+           /-----\
  2528.     |           |8/9 YY     |  Detail   |<- 31/32    .11111
  2529.     |           +-----------+-----------+<- 15/16    .1111
  2530.     |    Y      |           | too small |<- 14/16    .1110
  2531.     |2/3        |    YX     | for text  |<- 6/8      .110
  2532.     +-----------+-----------+-----------+
  2533.     |           |           |16/27 XYY  |<- 10/16    .1010
  2534.     |           |           +-----------+
  2535.     |           |    XY     |           |
  2536.     |           |           |   XYX     |<- 4/8      .100
  2537.     |           |4/9        |           |
  2538.     |           +-----------+-----------+
  2539.     |           |           |           |
  2540.     |    X      |           |   XXY     |<- 3/8      .011
  2541.     |           |           |8/27       |
  2542.     |           |           +-----------+
  2543.     |           |    XX     |           |
  2544.     |           |           |           |<- 1/4      .01
  2545.     |           |           |   XXX     |
  2546.     |           |           |           |
  2547.     |0          |           |           |
  2548.     +-----------+-----------+-----------+
  2549.  
  2550.   As an example of arithmetic coding, lets consider the example of two
  2551. symbols X and Y, of probabilities 0.66 and 0.33. To encode this message, we
  2552. examine the first symbol: If it is a X, we choose the lower partition; if
  2553. it is a Y, we choose the upper partition.  Continuing in this manner for
  2554. three symbols, we get the codewords shown to the right of the diagram above
  2555. - they can be found by simply taking an appropriate location in the
  2556. interval for that particular set of symbols and turning it into a binary
  2557. fraction. In practice, it is also necessary to add a special end-of-data
  2558. symbol, which is not represented in this simpe example.
  2559.         
  2560.   In this case the arithmetic code is not completely efficient, which is due 
  2561. to the shortness of the message - with longer messages the coding efficiency 
  2562. does indeed approach 100%.
  2563.  
  2564.   Now that we have an efficient encoding technique, what can we do with it? 
  2565. What we need is a technique for building a model of the data which we can 
  2566. then use with the encoder.  The simplest model is a fixed one, for example a 
  2567. table of standard letter frequencies for English text which we can then use 
  2568. to get letter probabilities.  An improvement on this technique is to use an 
  2569. *adaptive model*, in other words a model which adjusts itself to the data 
  2570. which is being compressed as the data is compressed.  We can convert the 
  2571. fixed model into an adaptive one by adjusting the symbol frequencies after 
  2572. each new symbol is encoded, allowing the model to track the data being 
  2573. transmitted.  However, we can do much better than that.
  2574.  
  2575. Using the symbol probabilities by themselves is not a particularly good
  2576. estimate of the true entropy of the data: We can take into account
  2577. intersymbol probabilities as well.  The best compressors available today
  2578. take this approach: DMC (Dynamic Markov Coding) starts with a zero-order
  2579. Markov model and gradually extends this initial model as compression
  2580. progresses; PPM (Prediction by Partial Matching) looks for a match of the
  2581. text to be compressed in an order-n context.  If no match is found, it
  2582. drops to an order n-1 context, until it reaches order 0.  Both these
  2583. techniques thus obtain a much better model of the data to be compressed,
  2584. which, combined with the use of arithmetic coding, results in superior
  2585. compression performance.
  2586.  
  2587.   So if arithmetic coding-based compressors are so powerful, why are they not 
  2588. used universally?  Apart from the fact that they are relatively new and 
  2589. haven't come into general use too much yet, there is also one major concern:  
  2590. The fact that they consume rather large amounts of computing resources, both 
  2591. in terms of CPU power and memory.  The building of sophisticated models for 
  2592. the compression can chew through a fair amount of memory (especially in the 
  2593. case of DMC, where the model can grow without bounds); and the arithmetic 
  2594. coding itself involves a fair amount of number crunching.
  2595. There is however an alternative approach, a class of compressors generally 
  2596. referred to as *substitutional* or *dictionary-based compressors*.
  2597.  
  2598.  Substitutional Compressors
  2599.  --------------------------
  2600.  
  2601.   The basic idea behind a substitutional compressor is to replace an 
  2602. occurrence of a particular phrase or group of bytes in a piece of data with a 
  2603. reference to a previous occurrence of that phrase.  There are two main 
  2604. classes of schemes, named after Jakob Ziv and Abraham Lempel, who first 
  2605. proposed them in 1977 and 1978.
  2606.  
  2607. <The LZ78 family of compressors>
  2608.  
  2609.   LZ78-based schemes work by entering phrases into a *dictionary* and then, 
  2610. when a repeat occurrence of that particular phrase is found, outputting the 
  2611. dictionary index instead of the phrase.  There exist several compression 
  2612. algorithms based on this principle, differing mainly in the manner in which 
  2613. they manage the dictionary.  The most well-known scheme (in fact the most 
  2614. well-known of all the Lempel-Ziv compressors, the one which is generally (and 
  2615. mistakenly) referred to as "Lempel-Ziv Compression"), is Terry Welch's LZW 
  2616. scheme, which he designed in 1984 for implementation in hardware for high- 
  2617. performance disk controllers.
  2618.  
  2619. Input string: /WED/WE/WEE/WEB
  2620.  
  2621. Character input:    Code output:    New code value and associated string:
  2622.     /W                  /                   256 = /W
  2623.     E                   W                   257 = WE
  2624.     D                   E                   258 = ED
  2625.     /                   D                   259 = D/
  2626.     WE                  256                 260 = /WE
  2627.     /                   E                   261 = E/
  2628.     WEE                 260                 262 = /WEE
  2629.     /W                  261                 263 = E/W
  2630.     EB                  257                 264 = WEB
  2631.     <END>               B
  2632.     
  2633.   LZW starts with a 4K dictionary, of which entries 0-255 refer to individual 
  2634. bytes, and entries 256-4095 refer to substrings.  Each time a new code is 
  2635. generated it means a new string has been parsed.  New strings are generated 
  2636. by appending the current character K to the end of an existing string w.  The 
  2637. algorithm for LZW compression is as follows:
  2638.  
  2639.   set w = NIL
  2640.   loop
  2641.       read a character K
  2642.       if wK exists is in the dictionary
  2643.           w = wK
  2644.       else
  2645.           output the code for w
  2646.           add wK to the string table
  2647.           w = K
  2648.   endloop
  2649.  
  2650.   A sample run of LZW over a (highly redundant) input string can be seen in 
  2651. the diagram above.  The strings are built up character-by-character starting 
  2652. with a code value of 256.  LZW decompression takes the stream of codes and 
  2653. uses it to exactly recreate the original input data.  Just like the 
  2654. compression algorithm, the decompressor adds a new string to the dictionary 
  2655. each time it reads in a new code.  All it needs to do in addition is to 
  2656. translate each incoming code into a string and send it to the output.  A 
  2657. sample run of the LZW decompressor is shown in below.
  2658.  
  2659. Input code: /WED<256>E<260><261><257>B
  2660.  
  2661. Input code:        Output string:     New code value and associated string:
  2662.     /                  /            
  2663.     W                  W                      256 = /W
  2664.     E                  E                      257 = WE
  2665.     D                  D                      258 = ED
  2666.     256                /W                     259 = D/
  2667.     E                  E                      260 = /WE
  2668.     260                /WE                    261 = E/
  2669.     261                E/                     262 = /WEE
  2670.     257                WE                     263 = E/W
  2671.     B                  B                      264 = WEB
  2672.            
  2673.   The most remarkable feature of this type of compression is that the entire 
  2674. dictionary has been transmitted to the decoder without actually explicitly 
  2675. transmitting the dictionary.  At the end of the run, the decoder will have a 
  2676. dictionary identical to the one the encoder has, built up entirely as part of 
  2677. the decoding process.
  2678.     LZW is more commonly encountered today in a variant known as LZC, after 
  2679. its use in the UNIX "compress" program.  In this variant, pointers do not 
  2680. have a fixed length.  Rather, they start with a length of 9 bits, and then 
  2681. slowly grow to their maximum possible length once all the pointers of a 
  2682. particular size have been used up.  Furthermore, the dictionary is not frozen 
  2683. once it is full as for LZW - the program continually monitors compression 
  2684. performance, and once this starts decreasing the entire dictionary is 
  2685. discarded and rebuilt from scratch.  More recent schemes use some sort of 
  2686. least-recently-used algorithm to discard little-used phrases once the 
  2687. dictionary becomes full rather than throwing away the entire dictionary.  
  2688.  
  2689. Finally, not all schemes build up the dictionary by adding a single new 
  2690. character to the end of the current phrase. An alternative technique is to 
  2691. concatenate the previous two phrases (LZMW), which results in a faster 
  2692. buildup of longer phrases than the character-by-character buildup of the 
  2693. other methods.  The disadvantage of this method is that a more sophisticated 
  2694. data structure is needed to handle the dictionary.
  2695.  
  2696. [A good introduction to LZW, MW, AP and Y coding is given in the yabba
  2697. package. For ftp information, see question 2 in part one, file type .Y]
  2698.  
  2699.  
  2700. <The LZ77 family of compressors>
  2701.  
  2702.   LZ77-based schemes keep track of the last n bytes of data seen, and when a 
  2703. phrase is encountered that has already been seen, they output a pair of 
  2704. values corresponding to the position of the phrase in the previously-seen 
  2705. buffer of data, and the length of the phrase.  In effect the compressor moves 
  2706. a fixed-size *window* over the data (generally referred to as a *sliding 
  2707. window*), with the position part of the (position, length) pair referring to 
  2708. the position of the phrase within the window.  The most commonly used 
  2709. algorithms are derived from the LZSS scheme described by James Storer and 
  2710. Thomas Szymanski in 1982.  In this the compressor maintains a window of size 
  2711. N bytes and a *lookahead buffer* the contents of which it tries to find a 
  2712. match for in the window:
  2713.  
  2714.   while( lookAheadBuffer not empty )
  2715.       {
  2716.       get a pointer ( position, match ) to the longest match in the window
  2717.           for the lookahead buffer;
  2718.  
  2719.       if( length > MINIMUM_MATCH_LENGTH )
  2720.           {
  2721.           output a ( position, length ) pair;
  2722.           shift the window length characters along;
  2723.           }
  2724.       else
  2725.           {
  2726.           output the first character in the lookahead buffer;
  2727.           shift the window 1 character along;
  2728.           }
  2729.       }
  2730.         
  2731.   Decompression is simple and fast:  Whenever a ( position, length ) pair is 
  2732. encountered, go to that ( position ) in the window and copy ( length ) bytes 
  2733. to the output.
  2734.  
  2735.   Sliding-window-based schemes can be simplified by numbering the input text
  2736. characters mod N, in effect creating a circular buffer.  The sliding window
  2737. approach automatically creates the LRU effect which must be done explicitly in
  2738. LZ78 schemes.  Variants of this method apply additional compression to the
  2739. output of the LZSS compressor, which include a simple variable-length code
  2740. (LZB), dynamic Huffman coding (LZH), and Shannon-Fano coding (ZIP 1.x)), all
  2741. of which result in a certain degree of improvement over the basic scheme,
  2742. especially when the data are rather random and the LZSS compressor has little
  2743. effect.
  2744.   Recently an algorithm was developed which combines the ideas behind LZ77 and
  2745. LZ78 to produce a hybrid called LZFG.  LZFG uses the standard sliding window,
  2746. but stores the data in a modified trie data structure and produces as output
  2747. the position of the text in the trie.  Since LZFG only inserts complete
  2748. *phrases* into the dictionary, it should run faster than other LZ77-based
  2749. compressors.
  2750.  
  2751. All popular archivers (arj, lha, zip, zoo) are variations on the LZ77 theme.
  2752.  
  2753. ------------------------------------------------------------------------------
  2754.  
  2755. Subject: [71] Introduction to MPEG (long)
  2756.  
  2757.  
  2758. For MPEG players, see item 15 in part 1 of the FAQ.  Frank Gadegast
  2759. <phade@cs.tu-berlin.de> also posts a FAQ specialized in MPEG.
  2760.  
  2761. Introduction written by Mark Adler <madler@cco.caltech.edu> around  
  2762. January 1992 (and hence wildly out of date in this fast moving  
  2763. area--any volunteers to update this section are welcome):
  2764.  
  2765. Q. What is MPEG?
  2766. A. MPEG is a group of people that meet under ISO (the International
  2767.    Standards Organization) to generate standards for digital video
  2768.    (sequences of images in time) and audio compression.  In particular,
  2769.    they define a compressed bit stream, which implicitly defines a
  2770.    decompressor.  However, the compression algorithms are up to the
  2771.    individual manufacturers, and that is where proprietary advantage
  2772.    is obtained within the scope of a publicly available international
  2773.    standard.  MPEG meets roughly four times a year for roughly a week
  2774.    each time.  In between meetings, a great deal of work is done by
  2775.    the members, so it doesn't all happen at the meetings.  The work
  2776.    is organized and planned at the meetings.
  2777.  
  2778. Q. So what does MPEG stand for?
  2779. A. Moving Pictures Experts Group.
  2780.  
  2781. Q. Does it have anything to do with JPEG?
  2782. A. Well, it sounds the same, and they are part of the same subcommittee
  2783.    of ISO along with JBIG and MHEG, and they usually meet at the same
  2784.    place at the same time.  However, they are different sets of people
  2785.    with few or no common individual members, and they have different
  2786.    charters and requirements.  JPEG is for still image compression.
  2787.  
  2788. Q. Then what's JBIG and MHEG?
  2789. A. Sorry I mentioned them. Ok, I'll simply say that JBIG is for binary
  2790.    image compression (like faxes), and MHEG is for multi-media data
  2791.    standards (like integrating stills, video, audio, text, etc.).
  2792.    For an introduction to JBIG, see question 74 below.
  2793.  
  2794. Q. Ok, I'll stick to MPEG.  What has MPEG accomplished?
  2795. A. So far (as of January 1992), they have completed the "Committee
  2796.    Draft" of MPEG phase I, colloquially called MPEG I.  It defines
  2797.    a bit stream for compressed video and audio optimized to fit into
  2798.    a bandwidth (data rate) of 1.5 Mbits/s.  This rate is special
  2799.    because it is the data rate of (uncompressed) audio CD's and DAT's.
  2800.    The draft is in three parts, video, audio, and systems, where the
  2801.    last part gives the integration of the audio and video streams
  2802.    with the proper timestamping to allow synchronization of the two.
  2803.    They have also gotten well into MPEG phase II, whose task is to
  2804.    define a bitstream for video and audio coded at around 3 to 10
  2805.    Mbits/s.
  2806.  
  2807. Q. So how does MPEG I work?
  2808. A. First off, it starts with a relatively low resolution video
  2809.    sequence (possibly decimated from the original) of about 352 by
  2810.    240 frames by 30 frames/s (US--different numbers for Europe),
  2811.    but original high (CD) quality audio.  The images are in color,
  2812.    but converted to YUV space, and the two chrominance channels
  2813.    (U and V) are decimated further to 176 by 120 pixels.  It turns
  2814.    out that you can get away with a lot less resolution in those
  2815.    channels and not notice it, at least in "natural" (not computer
  2816.    generated) images.
  2817.  
  2818.    The basic scheme is to predict motion from frame to frame in the
  2819.    temporal direction, and then to use DCT's (discrete cosine
  2820.    transforms) to organize the redundancy in the spatial directions.
  2821.    The DCT's are done on 8x8 blocks, and the motion prediction is
  2822.    done in the luminance (Y) channel on 16x16 blocks.  In other words,
  2823.    given the 16x16 block in the current frame that you are trying to
  2824.    code, you look for a close match to that block in a previous or
  2825.    future frame (there are backward prediction modes where later
  2826.    frames are sent first to allow interpolating between frames).
  2827.    The DCT coefficients (of either the actual data, or the difference
  2828.    between this block and the close match) are "quantized", which
  2829.    means that you divide them by some value to drop bits off the
  2830.    bottom end.  Hopefully, many of the coefficients will then end up
  2831.    being zero.  The quantization can change for every "macroblock"
  2832.    (a macroblock is 16x16 of Y and the corresponding 8x8's in both
  2833.    U and V).  The results of all of this, which include the DCT
  2834.    coefficients, the motion vectors, and the quantization parameters
  2835.    (and other stuff) is Huffman coded using fixed tables.  The DCT
  2836.    coefficients have a special Huffman table that is "two-dimensional"
  2837.    in that one code specifies a run-length of zeros and the non-zero
  2838.    value that ended the run.  Also, the motion vectors and the DC
  2839.    DCT components are DPCM (subtracted from the last one) coded.
  2840.  
  2841. Q. So is each frame predicted from the last frame?
  2842. A. No.  The scheme is a little more complicated than that.  There are
  2843.    three types of coded frames.  There are "I" or intra frames.  They
  2844.    are simply a frame coded as a still image, not using any past
  2845.    history.  You have to start somewhere.  Then there are "P" or
  2846.    predicted frames.  They are predicted from the most recently
  2847.    reconstructed I or P frame.  (I'm describing this from the point
  2848.    of view of the decompressor.)  Each macroblock in a P frame can
  2849.    either come with a vector and difference DCT coefficients for a
  2850.    close match in the last I or P, or it can just be "intra" coded
  2851.    (like in the I frames) if there was no good match.
  2852.  
  2853.    Lastly, there are "B" or bidirectional frames.  They are predicted
  2854.    from the closest two I or P frames, one in the past and one in the
  2855.    future.  You search for matching blocks in those frames, and try
  2856.    three different things to see which works best.  (Now I have the
  2857.    point of view of the compressor, just to confuse you.)  You try using
  2858.    the forward vector, the backward vector, and you try averaging the
  2859.    two blocks from the future and past frames, and subtracting that from
  2860.    the block being coded.  If none of those work well, you can intra-
  2861.    code the block.
  2862.  
  2863.    The sequence of decoded frames usually goes like:
  2864.  
  2865.    IBBPBBPBBPBBIBBPBBPB...
  2866.  
  2867.    Where there are 12 frames from I to I (for US and Japan anyway.)
  2868.    This is based on a random access requirement that you need a
  2869.    starting point at least once every 0.4 seconds or so.  The ratio
  2870.    of P's to B's is based on experience.
  2871.  
  2872.    Of course, for the decoder to work, you have to send that first
  2873.    P *before* the first two B's, so the compressed data stream ends
  2874.    up looking like:
  2875.  
  2876.    0xx312645...
  2877.  
  2878.    where those are frame numbers.  xx might be nothing (if this is
  2879.    the true starting point), or it might be the B's of frames -2 and
  2880.    -1 if we're in the middle of the stream somewhere.
  2881.  
  2882.    You have to decode the I, then decode the P, keep both of those
  2883.    in memory, and then decode the two B's.  You probably display the
  2884.    I while you're decoding the P, and display the B's as you're
  2885.    decoding them, and then display the P as you're decoding the next
  2886.    P, and so on.
  2887.  
  2888. Q. You've got to be kidding.
  2889. A. No, really!
  2890.  
  2891. Q. Hmm.  Where did they get 352x240?
  2892. A. That derives from the CCIR-601 digital television standard which
  2893.    is used by professional digital video equipment.  It is (in the US)
  2894.    720 by 243 by 60 fields (not frames) per second, where the fields
  2895.    are interlaced when displayed.  (It is important to note though
  2896.    that fields are actually acquired and displayed a 60th of a second
  2897.    apart.)  The chrominance channels are 360 by 243 by 60 fields a
  2898.    second, again interlaced.  This degree of chrominance decimation
  2899.    (2:1 in the horizontal direction) is called 4:2:2.  The source
  2900.    input format for MPEG I, called SIF, is CCIR-601 decimated by 2:1
  2901.    in the horizontal direction, 2:1 in the time direction, and an
  2902.    additional 2:1 in the chrominance vertical direction.  And some
  2903.    lines are cut off to make sure things divide by 8 or 16 where
  2904.    needed.
  2905.  
  2906. Q. What if I'm in Europe?
  2907. A. For 50 Hz display standards (PAL, SECAM) change the number of lines
  2908.    in a field from 243 or 240 to 288, and change the display rate to
  2909.    50 fields/s or 25 frames/s.  Similarly, change the 120 lines in
  2910.    the decimated chrominance channels to 144 lines.  Since 288*50 is
  2911.    exactly equal to 240*60, the two formats have the same source data
  2912.    rate.
  2913.  
  2914. Q. You didn't mention anything about the audio compression.
  2915. A. Oh, right.  Well, I don't know as much about the audio compression.
  2916.    Basically they use very carefully developed psychoacoustic models
  2917.    derived from experiments with the best obtainable listeners to
  2918.    pick out pieces of the sound that you can't hear.  There are what
  2919.    are called "masking" effects where, for example, a large component
  2920.    at one frequency will prevent you from hearing lower energy parts
  2921.    at nearby frequencies, where the relative energy vs. frequency
  2922.    that is masked is described by some empirical curve.  There are
  2923.    similar temporal masking effects, as well as some more complicated
  2924.    interactions where a temporal effect can unmask a frequency, and
  2925.    vice-versa.
  2926.  
  2927.    The sound is broken up into spectral chunks with a hybrid scheme
  2928.    that combines sine transforms with subband transforms, and the
  2929.    psychoacoustic model written in terms of those chunks.  Whatever
  2930.    can be removed or reduced in precision is, and the remainder is
  2931.    sent.  It's a little more complicated than that, since the bits
  2932.    have to be allocated across the bands.  And, of course, what is
  2933.    sent is entropy coded.
  2934.  
  2935. Q. So how much does it compress?
  2936. A. As I mentioned before, audio CD data rates are about 1.5 Mbits/s.
  2937.    You can compress the same stereo program down to 256 Kbits/s with
  2938.    no loss in discernable quality.  (So they say.  For the most part
  2939.    it's true, but every once in a while a weird thing might happen
  2940.    that you'll notice.  However the effect is very small, and it takes
  2941.    a listener trained to notice these particular types of effects.)
  2942.    That's about 6:1 compression.  So, a CD MPEG I stream would have
  2943.    about 1.25 MBits/s left for video.  The number I usually see though
  2944.    is 1.15 MBits/s (maybe you need the rest for the system data
  2945.    stream).  You can then calculate the video compression ratio from
  2946.    the numbers here to be about 26:1.  If you step back and think
  2947.    about that, it's little short of a miracle.  Of course, it's lossy
  2948.    compression, but it can be pretty hard sometimes to see the loss,
  2949.    if you're comparing the SIF original to the SIF decompressed.  There
  2950.    is, however, a very noticeable loss if you're coming from CCIR-601
  2951.    and have to decimate to SIF, but that's another matter.  I'm not
  2952.    counting that in the 26:1.
  2953.  
  2954.    The standard also provides for other bit rates ranging from 32Kbits/s
  2955.    for a single channel, up to 448 Kbits/s for stereo.
  2956.  
  2957. Q. What's phase II?
  2958. A. As I said, there is a considerable loss of quality in going from
  2959.    CCIR-601 to SIF resolution.  For entertainment video, it's simply
  2960.    not acceptable.  You want to use more bits and code all or almost
  2961.    all the CCIR-601 data.  From subjective testing at the Japan
  2962.    meeting in November 1991, it seems that 4 MBits/s can give very
  2963.    good quality compared to the original CCIR-601 material.  The
  2964.    objective of phase II is to define a bit stream optimized for these
  2965.    resolutions and bit rates.
  2966.  
  2967. Q. Why not just scale up what you're doing with MPEG I?
  2968. A. The main difficulty is the interlacing.  The simplest way to extend
  2969.    MPEG I to interlaced material is to put the fields together into
  2970.    frames (720x486x30/s).  This results in bad motion artifacts that
  2971.    stem from the fact that moving objects are in different places
  2972.    in the two fields, and so don't line up in the frames.  Compressing
  2973.    and decompressing without taking that into account somehow tends to
  2974.    muddle the objects in the two different fields.
  2975.  
  2976.    The other thing you might try is to code the even and odd field
  2977.    streams separately.  This avoids the motion artifacts, but as you
  2978.    might imagine, doesn't get very good compression since you are not
  2979.    using the redundancy between the even and odd fields where there
  2980.    is not much motion (which is typically most of image).
  2981.  
  2982.    Or you can code it as a single stream of fields.  Or you can
  2983.    interpolate lines.  Or, etc. etc.  There are many things you can
  2984.    try, and the point of MPEG II is to figure out what works well.
  2985.    MPEG II is not limited to consider only derivations of MPEG I.
  2986.    There were several non-MPEG I-like schemes in the competition in
  2987.    November, and some aspects of those algorithms may or may not
  2988.    make it into the final standard for entertainment video compression.
  2989.  
  2990. Q. So what works?
  2991. A. Basically, derivations of MPEG I worked quite well, with one that
  2992.    used wavelet subband coding instead of DCT's that also worked very
  2993.    well.  Also among the worked-very-well's was a scheme that did not
  2994.    use B frames at all, just I and P's.  All of them, except maybe one,
  2995.    did some sort of adaptive frame/field coding, where a decision is
  2996.    made on a macroblock basis as to whether to code that one as one
  2997.    frame macroblock or as two field macroblocks.  Some other aspects
  2998.    are how to code I-frames--some suggest predicting the even field
  2999.    from the odd field.  Or you can predict evens from evens and odds
  3000.    or odds from evens and odds or any field from any other field, etc.
  3001.  
  3002. Q. So what works?
  3003. A. Ok, we're not really sure what works best yet.  The next step is
  3004.    to define a "test model" to start from, that incorporates most of
  3005.    the salient features of the worked-very-well proposals in a
  3006.    simple way.  Then experiments will be done on that test model,
  3007.    making a mod at a time, and seeing what makes it better and what
  3008.    makes it worse.  Example experiments are, B's or no B's, DCT vs.
  3009.    wavelets, various field prediction modes, etc.  The requirements,
  3010.    such as implementation cost, quality, random access, etc. will all
  3011.    feed into this process as well.
  3012.  
  3013. Q. When will all this be finished?
  3014. A. I don't know.  I'd have to hope in about a year or less.
  3015.  
  3016. Q. How do I join MPEG?
  3017. A. You don't join MPEG.  You have to participate in ISO as part of a
  3018.    national delegation.  How you get to be part of the national
  3019.    delegation is up to each nation.  I only know the U.S., where you
  3020.    have to attend the corresponding ANSI meetings to be able to
  3021.    attend the ISO meetings.  Your company or institution has to be
  3022.    willing to sink some bucks into travel since, naturally, these
  3023.    meetings are held all over the world.  (For example, Paris,
  3024.    Santa Clara, Kurihama Japan, Singapore, Haifa Israel, Rio de
  3025.    Janeiro, London, etc.)
  3026.  
  3027. Q. Well, then how do I get the documents, like the MPEG I draft?
  3028. A. MPEG is a draft ISO standard. It's exact name is ISO CD 11172.
  3029.    The draft consists of three parts: System, Video, and Audio. The
  3030.    System part (11172-1) deals with synchronization and multiplexing
  3031.    of audio-visual information, while the Video (11172-2) and Audio
  3032.    part (11172-3) address the video and the audio compression techniques
  3033.    respectively.
  3034.  
  3035.    You may order it from your national standards body (e.g. ANSI in
  3036.    the USA) or buy it from companies like
  3037.      OMNICOM
  3038.      phone +44 438 742424
  3039.      FAX +44 438 740154
  3040.  
  3041. ------------------------------------------------------------------------------
  3042.  
  3043. Subject: [72] What is wavelet theory?
  3044.  
  3045.  
  3046. Preprints and software are available by anonymous ftp from the
  3047. Yale Mathematics Department computer ceres.math.yale.edu[130.132.23.22],
  3048. in pub/wavelets and pub/software.
  3049.  
  3050. epic and hcompress are wavelet coders. (For source code, see item 15
  3051. in part one).
  3052.  
  3053. Bill Press of Harvard/CfA has made some things available for anonymous
  3054. ftp on cfata4.harvard.edu [128.103.40.79] in directory /pub. There is
  3055. a short TeX article on wavelet theory (wavelet.tex, to be included in
  3056. a future edition of Numerical Recipes), some sample wavelet code
  3057. (wavelet.f, in FORTRAN - sigh), and a beta version of an astronomical
  3058. image compression program which he is currently developing (FITS
  3059. format data files only, in fitspress08.tar.Z).
  3060.  
  3061. A mailing list dedicated to research on wavelets has been set up at the
  3062. University of South Carolina. To subscribe to this mailing list, send a
  3063. message with "subscribe" as the subject to wavelet@math.scarolina.edu.
  3064.  
  3065.  
  3066. A 5 minute course in wavelet transforms, by Richard Kirk <rak@crosfield.co.uk>:
  3067.  
  3068. Do you know what a Haar transform is? Its a transform to another orthonormal
  3069. space (like the DFT), but the basis functions are a set of square wave bursts
  3070. like this...
  3071.  
  3072.    +--+                         +------+
  3073.    +  |  +------------------    +      |      +--------------
  3074.       +--+                             +------+
  3075.  
  3076.          +--+                                 +------+
  3077.    ------+  |  +------------    --------------+      |      +
  3078.             +--+                                     +------+
  3079.  
  3080.                +--+             +-------------+
  3081.    ------------+  |  +------    +             |             +
  3082.                   +--+                        +-------------+
  3083.  
  3084.                      +--+       +---------------------------+
  3085.    ------------------+  |  +    +                           +
  3086.                         +--+
  3087.  
  3088. This is the set of functions for an 8-element 1-D Haar transform. You
  3089. can probably see how to extend this to higher orders and higher dimensions
  3090. yourself. This is dead easy to calculate, but it is not what is usually
  3091. understood by a wavelet transform.
  3092.  
  3093. If you look at the eight Haar functions you see we have four functions
  3094. that code the highest resolution detail, two functions that code the
  3095. coarser detail, one function that codes the coarser detail still, and the 
  3096. top function that codes the average value for the whole `image'.
  3097.  
  3098. Haar function can be used to code images instead of the DFT. With bilevel
  3099. images (such as text) the result can look better, and it is quicker to code.
  3100. Flattish regions, textures, and soft edges in scanned images get a nasty
  3101. `blocking' feel to them. This is obvious on hardcopy, but can be disguised on
  3102. color CRTs by the effects of the shadow mask. The DCT gives more consistent
  3103. results.
  3104.  
  3105. This connects up with another bit of maths sometimes called Multispectral
  3106. Image Analysis, sometimes called Image Pyramids.
  3107.  
  3108. Suppose you want to produce a discretely sampled image from a continuous 
  3109. function. You would do this by effectively `scanning' the function using a
  3110. sinc function [ sin(x)/x ] `aperture'. This was proved by Shannon in the 
  3111. `forties. You can do the same thing starting with a high resolution
  3112. discretely sampled image. You can then get a whole set of images showing 
  3113. the edges at different resolutions by differencing the image at one
  3114. resolution with another version at another resolution. If you have made this
  3115. set of images properly they ought to all add together to give the original 
  3116. image.
  3117.  
  3118. This is an expansion of data. Suppose you started off with a 1K*1K image.
  3119. You now may have a 64*64 low resolution image plus difference images at 128*128
  3120. 256*256, 512*512 and 1K*1K. 
  3121.  
  3122. Where has this extra data come from? If you look at the difference images you 
  3123. will see there is obviously some redundancy as most of the values are near 
  3124. zero. From the way we constructed the levels we know that locally the average
  3125. must approach zero in all levels but the top. We could then construct a set of
  3126. functions out of the sync functions at any level so that their total value 
  3127. at all higher levels is zero. This gives us an orthonormal set of basis 
  3128. functions for a transform. The transform resembles the Haar transform a bit,
  3129. but has symmetric wave pulses that decay away continuously in either direction
  3130. rather than square waves that cut off sharply. This transform is the
  3131. wavelet transform ( got to the point at last!! ).
  3132.  
  3133. These wavelet functions have been likened to the edge detecting functions
  3134. believed to be present in the human retina.
  3135.  
  3136.  
  3137. Loren I. Petrich <lip@s1.gov> adds that order 2 or 3 Daubechies
  3138. discrete wavelet transforms have a speed comparable to DCT's, and
  3139. usually achieve compression a factor of 2 better for the same image
  3140. quality than the JPEG 8*8 DCT. (See item 25 in part 1 of this FAQ for
  3141. references on fast DCT algorithms.)
  3142.  
  3143. ------------------------------------------------------------------------------
  3144.  
  3145. Subject: [73] What is the theoretical compression limit?
  3146.  
  3147.  
  3148. There is no compressor that is guaranteed to compress all possible input
  3149. files. If it compresses some files, then it must enlarge some others.
  3150. This can be proven by a simple counting argument (see question 9).
  3151.  
  3152. As an extreme example, the following algorithm achieves 100%
  3153. compression for one special input file and enlarges all other files by
  3154. only one bit:
  3155.  
  3156. - if the input data is <insert your favorite one here>, output an empty file.
  3157. - otherwise output one bit (zero or one) followed by the input data.
  3158.  
  3159. The concept of theoretical compression limit is meaningful only
  3160. if you have a model for your input data. See question 70 above
  3161. for some examples of data models.
  3162.  
  3163. ------------------------------------------------------------------------------
  3164.  
  3165. Subject: [74] Introduction to JBIG
  3166.  
  3167.  
  3168. A short introduction, written by Mark Adler <madler@cco.caltech.edu>:
  3169.  
  3170.   JBIG losslessly compresses binary (one-bit/pixel) images.  (The B stands
  3171.   for bi-level.)  Basically it models the redundancy in the image as the
  3172.   correlations of the pixel currently being coded with a set of nearby
  3173.   pixels called the template.  An example template might be the two
  3174.   pixels preceding this one on the same line, and the five pixels centered
  3175.   above this pixel on the previous line.  Note that this choice only
  3176.   involves pixels that have already been seen from a scanner.
  3177.  
  3178.   The current pixel is then arithmetically coded based on the eight-bit
  3179.   (including the pixel being coded) state so formed.  So there are (in this
  3180.   case) 256 contexts to be coded.  The arithmetic coder and probability
  3181.   estimator for the contexts are actually IBM's (patented) Q-coder.  The
  3182.   Q-coder uses low precision, rapidly adaptable (those two are related)
  3183.   probability estimation combined with a multiply-less arithmetic coder.
  3184.   The probability estimation is intimately tied to the interval calculations
  3185.   necessary for the arithmetic coding.
  3186.  
  3187.   JBIG actually goes beyond this and has adaptive templates, and probably
  3188.   some other bells and whistles I don't know about.  You can find a
  3189.   description of the Q-coder as well as the ancestor of JBIG in the Nov 88
  3190.   issue of the IBM Journal of Research and Development.  This is a very
  3191.   complete and well written set of five articles that describe the Q-coder
  3192.   and a bi-level image coder that uses the Q-coder.
  3193.  
  3194.   You can use JBIG on grey-scale or even color images by simply applying
  3195.   the algorithm one bit-plane at a time.  You would want to recode the
  3196.   grey or color levels first though, so that adjacent levels differ in
  3197.   only one bit (called Gray-coding).  I hear that this works well up to
  3198.   about six bits per pixel, beyond which JPEG's lossless mode works better.
  3199.   You need to use the Q-coder with JPEG also to get this performance.
  3200.  
  3201.   Actually no lossless mode works well beyond six bits per pixel, since
  3202.   those low bits tend to be noise, which doesn't compress at all.
  3203.  
  3204.   Anyway, the intent of JBIG is to replace the current, less effective
  3205.   group 3 and 4 fax algorithms.
  3206.  
  3207.  
  3208. Another introduction to JBIG, written by Hank van Bekkem <jbek@oce.nl>:
  3209.  
  3210.   The following description of the JBIG algorithm is derived from
  3211.   experiences with a software implementation I wrote following the
  3212.   specifications in the revision 4.1 draft of September 16, 1991. The
  3213.   source will not be made available in the public domain, as parts of
  3214.   JBIG are patented.
  3215.  
  3216.   JBIG (Joint Bi-level Image Experts Group) is an experts group of ISO,
  3217.   IEC and CCITT (JTC1/SC2/WG9 and SGVIII). Its job is to define a
  3218.   compression standard for lossless image coding ([1]). The main
  3219.   characteristics of the proposed algorithm are:
  3220.   - Compatible progressive/sequential coding. This means that a
  3221.     progressively coded image can be decoded sequentially, and the
  3222.     other way around.
  3223.   - JBIG will be a lossless image compression standard: all bits in
  3224.     your images before and after compression and decompression will be
  3225.     exactly the same.
  3226.  
  3227.   In the rest of this text I will first describe the JBIG algorithm in
  3228.   a short abstract of the draft. I will conclude by saying something
  3229.   about the value of JBIG.
  3230.  
  3231.  
  3232.   JBIG algorithm.
  3233.   --------------
  3234.  
  3235.   JBIG parameter P specifies the number of bits per pixel in the image.
  3236.   Its allowable range is 1 through 255, but starting at P=8 or so,
  3237.   compression will be more efficient using other algorithms. On the
  3238.   other hand, medical images such as chest X-rays are often stored with
  3239.   12 bits per pixel, while no distorsion is allowed, so JBIG can
  3240.   certainly be of use in this area. To limit the number of bit changes
  3241.   between adjacent decimal values (e.g. 127 and 128), it is wise to use
  3242.   Gray coding before compressing multi-level images with JBIG. JBIG
  3243.   then compresses the image on a bitplane basis, so the rest of this
  3244.   text assumes bi-level pixels.
  3245.  
  3246.   Progressive coding is a way to send an image gradually to a receiver
  3247.   instead of all at once. During sending, more detail is sent, and the
  3248.   receiver can build the image from low to high detail. JBIG uses
  3249.   discrete steps of detail by successively doubling the resolution. The
  3250.   sender computes a number of resolution layers D, and transmits these
  3251.   starting at the lowest resolution Dl. Resolution reduction uses
  3252.   pixels in the high resolution layer and some already computed low
  3253.   resolution pixels as an index into a lookup table. The contents of
  3254.   this table can be specified by the user.
  3255.  
  3256.   Compatibility between progressive and sequential coding is achieved
  3257.   by dividing an image into stripes. Each stripe is a horizontal bar
  3258.   with a user definable height. Each stripe is separately coded and
  3259.   transmitted, and the user can define in which order stripes,
  3260.   resolutions and bitplanes (if P>1) are intermixed in the coded data.
  3261.   A progressive coded image can be decoded sequentially by decoding
  3262.   each stripe, beginning by the one at the top of the image, to its
  3263.   full resolution, and then proceeding to the next stripe. Progressive
  3264.   decoding can be done by decoding only a specific resolution layer
  3265.   from all stripes.
  3266.  
  3267.   After dividing an image into bitplanes, resolution layers and
  3268.   stripes, eventually a number of small bi-level bitmaps are left to
  3269.   compress. Compression is done using a Q-coder. Reference [2]
  3270.   contains a full description, I will only outline the basic principles
  3271.   here.
  3272.  
  3273.   The Q-coder codes bi-level pixels as symbols using the probability of
  3274.   occurrence of these symbols in a certain context. JBIG defines two
  3275.   kinds of context, one for the lowest resolution layer (the base
  3276.   layer), and one for all other layers (differential layers).
  3277.   Differential layer contexts contain pixels in the layer to be coded,
  3278.   and in the corresponding lower resolution layer.
  3279.  
  3280.   For each combination of pixel values in a context, the probability
  3281.   distribution of black and white pixels can be different. In an all
  3282.   white context, the probability of coding a white pixel will be much
  3283.   greater than that of coding a black pixel. The Q-coder assigns, just
  3284.   like a Huffman coder, more bits to less probable symbols, and so
  3285.   achieves compression. The Q-coder can, unlike a Huffmann coder,
  3286.   assign one output codebit to more than one input symbol, and thus is
  3287.   able to compress bi-level pixels without explicit clustering, as
  3288.   would be necessary using a Huffman coder.
  3289.  
  3290.   Maximum compression will be achieved when all probabilities (one set
  3291.   for each combination of pixel values in the context) follow the
  3292.   probabilities of the pixels. The Q-coder therefore continuously
  3293.   adapts these probabilities to the symbols it sees.
  3294.  
  3295.  
  3296.   JBIG value.
  3297.   ----------
  3298.  
  3299.   In my opinion, JBIG can be regarded as two combined devices:
  3300.   - Providing the user the service of sending or storing multiple
  3301.     representations of images at different resolutions without any
  3302.     extra cost in storage. Differential layer contexts contain pixels
  3303.     in two resolution layers, and so enable the Q-coder to effectively
  3304.     code the difference in information between the two layers, instead
  3305.     of the information contained in every layer. This means that,
  3306.     within a margin of approximately 5%, the number of resolution
  3307.     layers doesn't effect the compression ratio.
  3308.   - Providing the user a very efficient compression algorithm, mainly
  3309.     for use with bi-level images. Compared to CCITT Group 4, JBIG is
  3310.     approximately 10% to 50% better on text and line art, and even
  3311.     better on halftones. JBIG is however, just like Group 4, somewhat
  3312.     sensitive to noise in images. This means that the compression ratio
  3313.     decreases when the amount of noise in your images increases.
  3314.  
  3315.   An example of an application would be browsing through an image
  3316.   database, e.g. an EDMS (engineering document management system).
  3317.   Large A0 size drawings at 300 dpi or so would be stored using five
  3318.   resolution layers. The lowest resolution layer would fit on a
  3319.   computer screen. Base layer compressed data would be stored at the
  3320.   beginning of the compressed file, thus making browsing through large
  3321.   numbers of compressed drawings possible by reading and decompressing
  3322.   just the first small part of all files. When the user stops browsing,
  3323.   the system could automatically start decompressing all remaining
  3324.   detail for printing at high resolution.
  3325.  
  3326.   [1] "Progressive Bi-level Image Compression, Revision 4.1", ISO/IEC
  3327.       JTC1/SC2/WG9, CD 11544, September 16, 1991
  3328.   [2] "An overview of the basic principles of the Q-coder adaptive
  3329.       binary arithmetic coder", W.B. Pennebaker, J.L. Mitchell, G.G.
  3330.       Langdon, R.B. Arps, IBM Journal of research and development,
  3331.       Vol.32, No.6, November 1988, pp. 771-726 (See also the other
  3332.       articles about the Q-coder in this issue)
  3333.  
  3334. ------------------------------------------------------------------------------
  3335.  
  3336. Subject: [75] Introduction to JPEG
  3337.  
  3338. Here is a brief overview of the inner workings of JPEG, plus some
  3339. references for more detailed information, written by Tom Lane
  3340. <tgl+@cs.cmu.edu>.  Please read item 19 in part 1 first.
  3341.  
  3342. JPEG works on either full-color or gray-scale images; it does not handle
  3343. bilevel (black and white) images, at least not efficiently.  It doesn't
  3344. handle colormapped images either; you have to pre-expand those into an
  3345. unmapped full-color representation.  JPEG works best on "continuous tone"
  3346. images; images with many sudden jumps in color values will not compress well.
  3347.  
  3348. There are a lot of parameters to the JPEG compression process.  By adjusting
  3349. the parameters, you can trade off compressed image size against reconstructed
  3350. image quality over a *very* wide range.  You can get image quality ranging
  3351. from op-art (at 100x smaller than the original 24-bit image) to quite
  3352. indistinguishable from the source (at about 3x smaller).  Usually the
  3353. threshold of visible difference from the source image is somewhere around 10x
  3354. to 20x smaller than the original, ie, 1 to 2 bits per pixel for color images.
  3355. Grayscale requires a little bit less space.
  3356.  
  3357. JPEG defines a "baseline" lossy algorithm, plus optional extensions for
  3358. progressive and hierarchical coding.  There is also a separate lossless
  3359. compression mode; this typically gives about 2:1 compression, ie about 12
  3360. bits per color pixel.  Most currently available JPEG hardware and software
  3361. handles only the baseline mode.
  3362.  
  3363.  
  3364. Here's the outline of the baseline compression algorithm:
  3365.  
  3366. 1. Transform the image into a suitable color space.  This is a no-op for
  3367. grayscale, but for color images you generally want to transform RGB into a
  3368. luminance/chrominance color space (YCbCr, YUV, etc).  The luminance component
  3369. is grayscale and the other two axes are color information.  The reason for
  3370. doing this is that you can afford to lose a lot more information in the
  3371. chrominance components than you can in the luminance component; the human eye
  3372. is not as sensitive to high-frequency color info as it is to high-frequency
  3373. luminance.  (See any TV system for precedents.)  You don't have to change the
  3374. color space if you don't want to, as the remainder of the algorithm works on
  3375. each color component independently, and doesn't care just what the data is.
  3376. However, compression will be less since you will have to code all the
  3377. components at luminance quality.
  3378.  
  3379. 2. (Optional) Downsample each component by averaging together groups of
  3380. pixels.  The luminance component is left at full resolution, while the color
  3381. components are usually reduced 2:1 horizontally and either 2:1 or 1:1 (no
  3382. change) vertically.  In JPEG-speak these alternatives are usually called
  3383. 2h2v and 2h1v sampling, but you may also see the terms "411" and "422"
  3384. sampling.  This step immediately reduces the data volume by one-half or
  3385. one-third, while having almost no impact on perceived quality.  (Obviously
  3386. this would not be true if you tried it in RGB color space...)  Note that
  3387. downsampling is not applicable to gray-scale data.
  3388.  
  3389. 3. Group the pixel values for each component into 8x8 blocks.  Transform each
  3390. 8x8 block through a discrete cosine transform (DCT); this is a relative of the
  3391. Fourier transform and likewise gives a frequency map, with 8x8 components.
  3392. Thus you now have numbers representing the average value in each block and
  3393. successively higher-frequency changes within the block.  The motivation for
  3394. doing this is that you can now throw away high-frequency information without
  3395. affecting low-frequency information.  (The DCT transform itself is reversible
  3396. except for roundoff error.)  See question 25 for fast DCT algorithms.
  3397.  
  3398. 4. In each block, divide each of the 64 frequency components by a separate
  3399. "quantization coefficient", and round the results to integers.  This is the
  3400. fundamental information-losing step.  A Q.C. of 1 loses no information;
  3401. larger Q.C.s lose successively more info.  The higher frequencies are normally
  3402. reduced much more than the lower.  (All 64 Q.C.s are parameters to the
  3403. compression process; tuning them for best results is a black art.  It seems
  3404. likely that the best values are yet to be discovered.  Most existing coders
  3405. use simple multiples of the example tables given in the JPEG standard.)
  3406.  
  3407. 5. Encode the reduced coefficients using either Huffman or arithmetic coding.
  3408. (Strictly speaking, baseline JPEG only allows Huffman coding; arithmetic
  3409. coding is an optional extension.)   Notice that this step is lossless, so it
  3410. doesn't affect image quality.  The arithmetic coding option uses Q-coding;
  3411. it is identical to the coder used in JBIG (see question 74).  Be aware that
  3412. Q-coding is patented.  Most existing implementations support only the Huffman
  3413. mode, so as to avoid license fees.  The arithmetic mode offers maybe 5 or 10%
  3414. better compression, which isn't enough to justify paying fees.
  3415.  
  3416. 6. Tack on appropriate headers, etc, and output the result.  In an
  3417. "interchange" JPEG file, all of the compression parameters are included
  3418. in the headers so that the decompressor can reverse the process.  For
  3419. specialized applications, the spec permits the parameters to be omitted
  3420. from the file; this saves several hundred bytes of overhead, but it means
  3421. that the decompressor must know what parameters the compressor used.
  3422.  
  3423.  
  3424. The decompression algorithm reverses this process, and typically adds some
  3425. smoothing steps to reduce pixel-to-pixel discontinuities.
  3426.  
  3427.  
  3428. Extensions:
  3429.  
  3430. The progressive mode is intended to support real-time transmission of images.
  3431. It allows the DCT coefficients to be sent incrementally in multiple "scans"
  3432. of the image.  With each scan, the decoder can produce a higher-quality
  3433. rendition of the image.  Thus a low-quality preview can be sent very quickly,
  3434. then refined as time allows.  Notice that the decoder must do essentially a
  3435. full JPEG decode cycle for each scan, so this scheme is useful only with fast
  3436. decoders (meaning dedicated hardware, at least at present).  However, the
  3437. total number of bits sent can actually be somewhat less than is necessary in
  3438. the baseline mode, especially if arithmetic coding is used.  So progressive
  3439. coding might be useful even if the decoder will simply save up the bits and
  3440. make only one output pass.
  3441.  
  3442. The hierarchical mode represents an image at multiple resolutions.  For
  3443. example, one could provide 512x512, 1024x1024, and 2048x2048 versions of the
  3444. image.  The higher-resolution images are coded as differences from the next
  3445. smaller image, and thus require many fewer bits than they would if stored
  3446. independently.  (However, the total number of bits will be greater than that
  3447. needed to store just the highest-resolution frame.)  Note that the individual
  3448. frames in a hierarchical sequence may be coded progressively if desired.
  3449.  
  3450.  
  3451. Lossless JPEG:
  3452.  
  3453. The separate lossless mode does not use DCT, since roundoff errors prevent a
  3454. DCT calculation from being lossless.  For the same reason, one would not
  3455. normally use colorspace conversion or downsampling, although these are
  3456. permitted by the standard.  The lossless mode simply codes the difference
  3457. between each pixel and the "predicted" value for the pixel.  The predicted
  3458. value is a simple function of the already-transmitted pixels just above and
  3459. to the left of the current one (eg, their average; 8 different predictor
  3460. functions are permitted).  The sequence of differences is encoded using the
  3461. same back end (Huffman or arithmetic) used in the lossy mode.
  3462.  
  3463. The main reason for providing a lossless option is that it makes a good
  3464. adjunct to the hierarchical mode: the final scan in a hierarchical sequence
  3465. can be a lossless coding of the remaining differences, to achieve overall
  3466. losslessness.  This isn't quite as useful as it may at first appear, because
  3467. exact losslessness is not guaranteed unless the encoder and decoder have
  3468. identical IDCT implementations (ie identical roundoff errors).
  3469.  
  3470.  
  3471. References:
  3472.  
  3473. For a good technical introduction to JPEG, see:
  3474.  Wallace, Gregory K.  "The JPEG Still Picture Compression Standard",
  3475.  Communications of the ACM, April 1991 (vol. 34 no. 4), pp. 30-44.
  3476. (Adjacent articles in that issue discuss MPEG motion picture compression,
  3477. applications of JPEG, and related topics.)  If you don't have the CACM issue
  3478. handy, a PostScript file containing a revised version of this article is
  3479. available at ftp.uu.net, graphics/jpeg/wallace.ps.Z.  The file (actually a
  3480. preprint for an article to appear in IEEE Trans. Consum. Elect.) omits the
  3481. sample images that appeared in CACM, but it includes corrections and some
  3482. added material.  Note: the Wallace article is copyright ACM and IEEE, and
  3483. it may not be used for commercial purposes.
  3484.  
  3485. An alternative, more leisurely explanation of JPEG can be found in "The Data
  3486. Compression Book" by Mark Nelson ([Nel 1991], see question 7).  This book
  3487. provides excellent introductions to many data compression methods including
  3488. JPEG, plus sample source code in C.  The JPEG-related source code is far from
  3489. industrial-strength, but it's a pretty good learning tool.
  3490.  
  3491. An excellent textbook about JPEG is "JPEG Still Image Data Compression
  3492. Standard" by William B. Pennebaker and Joan L. Mitchell.  Published by Van
  3493. Nostrand Reinhold, 1993, ISBN 0-442-01272-1.  650 pages, price US$59.95.
  3494. (VNR will accept credit card orders at 800/842-3636, or get your local
  3495. bookstore to order it.)  This book includes the complete text of the ISO
  3496. JPEG standards, DIS 10918-1 and draft DIS 10918-2.  Review by Tom Lane:
  3497. "This is by far the most complete exposition of JPEG in existence.  It's
  3498. written by two people who know what they are talking about: both serve on the
  3499. ISO JPEG standards committee.  If you want to know how JPEG works or why it
  3500. works that way, this is the book to have."
  3501.  
  3502. The official specification of JPEG is not currently available on-line.
  3503. I hear that CCITT specs may be on-line sometime soon, which would change this.
  3504. At the moment, your best bet is to buy the Pennebaker and Mitchell textbook.
  3505. Archive-name: compression-faq/part3
  3506. Last-modified: May 19th, 1993
  3507.  
  3508. This file is part 3 of a set of Frequently Asked Questions for the
  3509. groups comp.compression and comp.compression.research.
  3510. If you did not get part 1 or 2, you can get them by ftp
  3511. on rtfm.mit.edu in directory
  3512.    /pub/usenet/news.answers/compression-faq
  3513.  
  3514. If you don't want to see this FAQ regularly, please add the subject
  3515. line to your kill file. If you have corrections or suggestions for
  3516. this FAQ, send them to Jean-loup Gailly <jloup@chorus.fr>.  Thank you.
  3517.  
  3518. Contents
  3519. ========
  3520.  
  3521. Part 3: (Long) list of image compression hardware
  3522.  
  3523. [85] Image compression hardware
  3524. [99] Acknowledgments
  3525.  
  3526.  
  3527. Search for "Subject: [#]" to get to question number # quickly. Some news
  3528. readers can also take advantage of the message digest format used here.
  3529.  
  3530. ------------------------------------------------------------------------------
  3531.  
  3532. Subject: [85] Image compression hardware
  3533.  
  3534. Here is a list of sources of image compression hardware (JPEG, MPEG,
  3535. H.261 and others), reposted with the author's permission.  The list is
  3536. probably a little dated already, but it is a good starting point for
  3537. seeking compression chips. (Please send corrections/additions to
  3538. jloup@chorus.fr). References are taken from:
  3539.  
  3540.    VIDEO COMPRESSION OPTIONS, IEEE CICC 6-May-92
  3541.    John J. Bloomer, jbloomer@crd.ge.com, Fathy F. Yassa, Aiman A. Abdel-Malek
  3542.    General Electric Corporate R&D, KWC317 Signals and Systems Laboratory
  3543.    PO Box 8, Schenectady NY, 12301
  3544.  
  3545. Some comments are from C. Fogg <cfogg@u.washington.edu> and George Warner
  3546. <warnergt@aloft.att.com>.
  3547.  
  3548.  
  3549.  Pipelined Processors, Building Blocks (Chip Sets)
  3550.  -------------------------------------------------
  3551.  
  3552. STI3200, IMSA121, STI3208 - SGS-Thompson DCT processors.  602-867-6279
  3553.  - 3200 has multiple block size options, DC to 13.5 MHz
  3554.  - A121 8x8 fixed blocks, DC to 20MHz, add/sub loop, CCITT compatible
  3555.  - 3208 8x8 fixed blocks, DC to 40MHz, CCITT compatible at 20MHz
  3556.  
  3557. STI3220 - SGS-Thompson motion estimator (H.261, MPEG).  602-867-6279
  3558.  - 8-bit input pixels, 4-bit H and V vectors out
  3559.  - adjustable block size matcher (8x8, 8x16, 16x16)
  3560.  - +7/-8 search window
  3561.  - 5V, 2W at 18MHz (max), 68 pin PLCC
  3562.  
  3563. L64765 , L64735 , L64745 - 3-chip LSI Logic JPEG set.  408-433-4383
  3564.  - L64765 raster-to-block and color-space converter, jointly developed
  3565.           with Rapid Tech.
  3566.  - L64735 block DCT processor
  3567.  - L64745 JPEG coder support, stand-alone lossless DPCM codec, dynamic
  3568.           Huffman
  3569.  - 27 MB/s on CCIR601 frames
  3570.  - minimal support logic, color and gray scale
  3571.  - 68-pin PGA or PLCC, 27 and 20 MHz versions
  3572.  
  3573. L647*0 and L6471* families - LSI Logic H.621/MPEG pieces.  408-433-8000
  3574.  - L64720 motion estimator, 30/40MHz, 8x8, 16x16 blocks, 32x32 or 16x16 
  3575.           search window, 68-pin CPGA or PPGA
  3576.  - L64730 & 735 8x8 DCT processors (12 & 8-9 bits)
  3577.  - L64740 8x8 block quantization
  3578.  - L64760 intra/inter-frame coding decision
  3579.  - L64715 BCH error correction
  3580.  - L64750/L64751 variable length encode/decode (H.261-specific)
  3581.  
  3582. ZR36020 and ZR36031 - Zoran DCT processor & quantization/encoding. 408-986-1314
  3583.  - JPEG-like scheme using 16-bit, two's complement fixed point
  3584.           arithmetic
  3585.  - includes bit-rate controls for constant # of pictures per card
  3586.  - 7.4 MHz, < 1W, 20mW in standby mode, 7.5 frames/s (f/s)
  3587.  - 36020 - 44-pin plastic quad flatpack (PQFP) or 48-pin ceramic DIP
  3588.  - 36031 - 100-pin PQFP or 85-pin PGA.
  3589.  - co-developments with Fuji Photo Film Co. Ltd. digital IC-card
  3590.           camera market
  3591.  
  3592.  Does 2-passes of image: generate histogram for optimum Huffman
  3593.  tables and quantization compute step size (ala H.261 and
  3594.  MPEG-I) for each macroblock or minimum coded unit (MCU).
  3595.  
  3596.  JPEG-compatible codec expected soon.
  3597.  
  3598. LDM3104  - Olympus DCT coefficient encoder
  3599.  - constant rate, digital IC-card camera market
  3600.  - 750 mW, 25 mW standby, 100-poin QFP
  3601.  
  3602. TMC2312 - TRW quantizer/Huffman encoder, TMC2313 Huffman decoder/dequantizer
  3603.  
  3604. TMC2311 - TRW CMOS Fast Cosine Transform Processor.  
  3605.  - 12 Bits, 15 M pixels/s
  3606.  - complies with the CCITT SGXV ( e.g. JPEG, H.261 and MPEG )
  3607.  - includes an adder-subtractor for linear predictive coding
  3608.  
  3609. MN195901 - Matsushita Electric Industrial Co.   See ISSCC 1992
  3610.  - 16-bit, 60 MIP video signal processor
  3611.  - 25 uS instruction processing
  3612.  - on-board DCT and absolute differencing
  3613.  - Philips Signetics US fab.
  3614.  
  3615. HGCT - Ricoh CRC, Generalized Chen Transform demonstration chip.  408-281-1436
  3616.  - 2D JPEG/MPEG/H.261 compatible DCT
  3617.  - includes quantization
  3618.  - 30MHz, 15K gates
  3619.  - licensing possible
  3620.  
  3621. GCTX64000 - Graphic Communication Technology Corp. chipset
  3622.  - provides CCITT H.261
  3623.  - VLSI Technology and Hitachi supply H.261 codec core. 1 micron CMOS.
  3624.  
  3625. BT - British Telecommunications  plc., Martlesham labs designed
  3626.  - H.261 codec chipset, Motorola fab.
  3627.  - 13 chips total for codec.
  3628.  
  3629.  
  3630.  Pipelined Processors, Monolithic, Programmable
  3631.  ----------------------------------------------
  3632.  
  3633. Vision Processor - Integrated Information Technology Inc. 408-727-1885
  3634.  - generic DCT, motion compensated & entropy coding codec
  3635.  - microcode for still- and motion-video compression (JPEG, H.261 and
  3636.           MPEG1)
  3637.  - 1 micron CMOS, 20 MHz and 33 MHz, PGA and 84-pin QFP  
  3638.  - JPEG only and JPEG/H/261/MPEG versions available, H.261 at 30 f/s.  
  3639.  - used by Compression Labs, Inc. CDV teleconferencing system
  3640.  - rumored to be the heart of the AT&T picture phone
  3641.  
  3642. MN195901 - Matsushita Electric Industrial Corp
  3643.  - 40 MHz DSP, built-in DCT
  3644.  - 16-bit fixed-point
  3645.  
  3646. AVP1000  - Motorola JPEG, MPEG and H.261 codec chipset.  800-372-2447
  3647.  - 1400D decoder, 1400C system controller
  3648.  - 1300E H.261 (CIF, QCIF, CIF240) at 30 f/s, I-frame only MPEG.
  3649.  - 1400E is superset of 1300E, motion with 1/2 pixel resolution over +/-
  3650.           32 pixels
  3651.  - YCbCr video or digital input, on-board rate FIFOs, external RAM
  3652.           required
  3653.  - 0.75 micron, 50 MHz CMOS
  3654.  
  3655.  AVP1000 is from AT&T Microelectronics.  The AT&T chip set
  3656.  handles MPEG-1, H.261, and JPEG.  1400D has on board color
  3657.  space convertor.  Limited to 4Mb/s coded rate.  The DSP does
  3658.  the MUSICAM decoding (up to layer II ?)
  3659.  
  3660.  
  3661. 82750PB, 82750DB - Intel DVI  pixel and display YUV color space processors.
  3662.  - proprietary machine code employed for compression
  3663.  - usable for other algorithms (e.g., JPEG, H.261 or MPEG1 at reduced
  3664.           data rates)
  3665.  
  3666.  
  3667.  Pipelined Processors, Monolithic, Fixed Lossless - Entropy Coders, DPCM, VQ
  3668.  ---------------------------------------------------------------------------
  3669.  
  3670. DCP - Integrated Information Tech. Inc. Data Compressor Processor  408-727-1885
  3671.  - LZ codec with on-chip dictionary store
  3672.  - on-chip buffers supporting block moves
  3673.  - targeting disk drives and network controller markets
  3674.  - 3.3V, 84-pin PQFP
  3675.  
  3676. Mystic - HP's DC-LZ codec.  408-749-9500
  3677.  
  3678. AHA3210 - Advanced Hardware Architectures DC-LZ codec. 208-883-8000
  3679.  - two independent DMA ports for 10 MB/s compress, decompress &
  3680.           pass-thru
  3681.  - addressing allows up to 16 MB record compression
  3682.  - 20 MHz internal clock, 200 mW, 100-pin PQFP
  3683.  - interface to AHA5101/5121 QIC tape controller/formatter
  3684.  - HP licensee
  3685.  
  3686. AHA3xxx/xxy - Rice (UNC) algorithm, 20M samples/sec, 4 to 14 bits. 208-883-8000
  3687.  
  3688. CRM1000 - CERAM Inc. entropy codec, proprietary algorithm.  719-540-8500
  3689.  
  3690. Rice - UNC algorithm prototype, 180 Mb/s.  See IEEE CICC 1992
  3691.  - other CICC 1992 papers:
  3692.     +JS.E. Kerneny et.al. differential read, pyramidal output CCD
  3693.       + A. Aggoun et.al. DPCM processing
  3694.  
  3695. DCD - Philips Data Compressor Decompressor IC. 914-945-6000
  3696.  - See CICC 1990 proceedings, H. Blume, et.al.
  3697.  - LZ codec, 20 MHz clock
  3698.  - Internal FIFOs, separate input/output buses, max 10 Mword/s data in
  3699.  - 5 V CMOS, 175-pin PGA
  3700.  
  3701. 9705 - Second generation Stac Electronics accelerator chip.  619-431-7474
  3702.  - Stacker LZA compression scheme(LZ-based)
  3703.  - compress at approx. 2.5 MB/s, decompress at 6 MB/s (39+ faster than
  3704.           9704)
  3705.  - standby mode 300uA
  3706.  - embedded in tapes and disks (e.g., QIC-122 Ten X Technology
  3707.           512-346-8360)
  3708.  - file compression board & software:
  3709.      + for the PC/AT - from Stac
  3710.      + for the Macintosh - from Sigma Design 415-770-0100 (40 MHz 9703)
  3711.  - InfoChip Systems Inc. - proprietary string-matching technology
  3712.           408-727-0514
  3713.  
  3714. VCEP or OTI95C71/Am95C71 - Oak Technology Inc. 408-737-0888
  3715.  - AMD CCITT B&W fax image compression
  3716.  
  3717.  
  3718.  Pipelined Processors, Monolithic, Fixed Lossy
  3719.  ---------------------------------------------
  3720.  
  3721. MB86356B - Fujitsu LTD.
  3722.  - JPEG DIS 10918-1 baseline  codec
  3723.  - on-chip quantizer tables
  3724.  - 2.5M pixel/sec input, up to 10MB/sec output
  3725.  - supports progressive and DPCM lossless modes 
  3726.  - 135 pin PGA.
  3727.  
  3728. CL550-30 - C-Cube Microsystems 408-944-6300
  3729.  - JPEG-8-R2 compliant baseline codec
  3730.  - 350-level pipeline, on-chip Huffman and quantizer table
  3731.  - 44.1 MB/sec (15 MB/sec for -10)
  3732.  - RGB, YUV, CMYK supported, CCIR 601 in real-time
  3733.  - 16/32-bit host interface 
  3734.  - 144 pin PGA or QFP, 2.5W at 29.41 MHz
  3735.  
  3736.  Limited to 2MB/sec (15Mb/s) coded rate.  35MHz PGA version
  3737.  available.  2:1 horizontal filter, on board programmable color
  3738.  space convertor.  Allows on pair of quantization tables to be
  3739.  loaded while other pair is used to code or decode data stream.
  3740.  Needs maintanence by host.
  3741.  
  3742. STI140 - SGS-Thompson JPEG baseline codec.  617-259-0300 [** Now cancelled **]
  3743.  - see CICC 1991 proceedings, M. Bolton.
  3744.  - 20 Mpixel/sec input, up to 20 MB/sec output
  3745.  - supports 24-bit color, 8-bit grey and 12-bit extended pixels
  3746.  - on chip Huffman and quantizer tables
  3747.  - 144 pin PQFP, 5V, < 2W., 10mW power-down mode
  3748.  - 1.2 micron, 3-layer metal CMOS, 20 MHz. `
  3749.  
  3750. UVC7710 - UVC Corp. Integrated Multimedia Processor.  714-261-5336
  3751.  - proprietary, patented intra-frame compression, on-chip code tables
  3752.  - 20-35:1, 12.5 Mpixels/sec., compressed audio
  3753.  - includes much of the PC-AT (16-bit ISA) bus interface logic
  3754.  - 128 pin PJQFP plastic
  3755.  
  3756. CL950 - C-Cube/JVC implementation of the MPEG-JVC or extended mode MPEG2 
  3757.         announced.  6-9 Mb/sec.
  3758.  
  3759.  JVC mode is not MPEG-II compliant (there isn't an MPEG2 standard yet)
  3760.  but is an extension of MPEG1 at a higher rate plus interlace video
  3761.  handling.
  3762.  
  3763. CL450 - Announced June 1992.  Scaled down version of CL950, with 3Mb/sec
  3764.         limit.  Does not code or decode JPEG, only MPEG-I decoding.
  3765.  
  3766. CD-I - ASICs planned for CD-ROM, Compact Disk-Interactive defacto standards
  3767.  - CD-ROM XA - Sony-Philips-Motorola-Microsoft
  3768.  - CDTV -  Commodore.  YUV processing.
  3769.  - audio ADPCM encode/decode PC/AT boards available from Sony
  3770.           408-432-0190
  3771.  
  3772.  Phillips has exclusively contracted the CL450 for use in motion video
  3773.  expansion slot on CD-I players.
  3774.  
  3775.  
  3776.  Codecs Chips Under Development
  3777.  ------------------------------
  3778.  
  3779. MPEG1 codec chips due from - TI, Brooktree, Cypress Semiconductor, Motorola 
  3780. (successor to the DSP96002 Multimedia Engine), Xing Technology/Analog Devices, 
  3781. Sony and C-Cube
  3782.  
  3783.  
  3784. Windbond Electronics Corp. is developing a DSP chip for CD-I, MPEG and JPEG
  3785.  
  3786.  
  3787.  Using these Chips: Board Level Compression Hardware
  3788.  ------------------------------------------------------
  3789.  
  3790. + JPEG Using CL550
  3791.  
  3792. + JPEG Using Other Chip Sets
  3793.  
  3794. + DSP Chip Based JPEG/MPEG Solutions
  3795.  
  3796. + Integrated Compressed Digital Video Boards 
  3797.  
  3798.  
  3799.  JPEG Using CL550
  3800.  ---------------
  3801. C-Cube - 408-944-6300 ISA and NuBus boards 
  3802.  - for development and limited time-constraint applications
  3803.  - 1-2.5 MB/sec host bus constraints
  3804.  - Image Compression Interface (ISI) software for 3rd party CL550
  3805.           integration
  3806.  
  3807. VideoSpigot/SuperSqueeze - SuperMac Technology 408-245-2202
  3808.  - a CL550A on a NuBus board
  3809.  - 24 frame/s with CD-quality audio
  3810.  - reads from Winchester and magneto-optic drives
  3811.  
  3812. Fluency VSA-1000 - Fluent Machines, Inc. AT board set.  508 626-2144
  3813.  - compress/decompress real-time synced audio & video to a i386 PC
  3814.           Winchester
  3815.  - NTSC or PAL input, 320x240 pixels saved
  3816.  - uses i960 chip, no additional boards needed
  3817.  - M/S Windows support, 3rd party S/W (e.g., AimTech 603-883-0220)
  3818.  
  3819. Super Motion Compression - New Media Graphics  PC/AT board.  800 288-2207
  3820.  - 8Khz, 8-bit compressed audio
  3821.  - 30 f/s JPEG to & from disk
  3822.  - earlier reports: still-frame compression in several seconds per MB
  3823.  
  3824.  
  3825. Leadview  - Lead Tech Inc. AT board uses the CL550 to compress/decompress
  3826.             JFIF or JTIF format files
  3827.  
  3828. Monalisa - Opta Inc. AT board uses the CL550
  3829.  
  3830. Squeeze - Rapid Technology AT board
  3831.  - Integrated by a number of vendors into 3rd party multimedia,
  3832.           video-editing PC stations
  3833.  
  3834. Parallax Graphics - SBus, VME and PC-AT boards.  408-727-2220
  3835.  
  3836. Chips and Technologies - JPEG development kit due.
  3837.  
  3838.  
  3839.  JPEG Using Other Chipsets
  3840.  -------------------------
  3841.  
  3842. Visionary - Rapid Technology JPEG AT board.  716-833-8534
  3843.  -  LSI Logic JPEG chips L647-35, -45 & -65
  3844.  - 30 f/s motion JPEG
  3845.  - 256x240 pixel compression and display from CCIR-601 input
  3846.  - private codec-frame buffer bus
  3847.  - also integrated with TrueVision multimedia hardware
  3848.  
  3849. Media 100  - Data Translation nonlinear video production system for the
  3850.           Macintosh  (QuickTime).  22 MB/s (PAL) and 18MB/s (NTSC) throughput.
  3851.  
  3852. Alice - Telephoto Communications Inc. 619-452-0903
  3853.  - Alice-H350 (PC/AT) and -H365 (PS/2) codec boards
  3854.  - use a 40 MHz TMS320C51 DSP and a IMSA121 DCT processor chip
  3855.  - JPEG (lossy and lossless), CCITT G3/G4, color and grey-scale images
  3856.  
  3857. Xing Technology - Hardware accelerator.  805-473-0145
  3858.  - compatible with their VT-Express JPEG Turbo Accelerator Software
  3859.  
  3860. Video/1 - PsiTech Inc. 714-968-7818
  3861.  - includes a 6U VME/VSB JPEG Processing Card 
  3862.  - compresses RS-170, NTSC, PAL or Secam video into 8 MB of on-board RAM
  3863.  
  3864.  
  3865.  DSP Chip Based JPEG/MPEG Solutions
  3866.  ----------------------------------
  3867.  
  3868. Optipac - Optivision Inc. PC/AT, ISA & VME codecs.  800-562-8934
  3869.  - JPEG (lossless and lossy), CCITT III/IV
  3870.  - 1 to 5 TMS32C025s
  3871.  - 512x400x16-bit images in < 1 sec.
  3872.  
  3873. XCeed ICDP-II - Micron Technology Inc. NuBus card
  3874.  - uses two AT&T Microelectronics DSP-16 DSP chips
  3875.  - driven by Storm Technologies PicturePress software
  3876.  - executes an enhanced JPEG algorithm at near-realtime.
  3877.  
  3878. PicturePress Accelerator - Storm Technology 415-691-1111 (see above)
  3879.  - also has a line of VME compression boards
  3880.  - Micro Dynamics Ltd. imaging systems use Storm accelerator
  3881.           301-589-6300
  3882.  
  3883. Picture Packer Accelerator - Video & Image Compression Corp.
  3884.  - AT and NuBus boards use the JPEG Open Standard and a TMS320C25
  3885.  
  3886. VideoPix - Software JPEG boards are offered by Sun Microsystems (S-Bus).
  3887.  
  3888. Phoenix System - T/one Inc. uses an Optivision Optipac 3250 to talk to a Storm 
  3889.                  Technologies NuBus PicturePress Accelerator to talk JPEG over 
  3890.                  analog phone lines.
  3891.  
  3892. Nextdimension - NeXt Computer Inc. 415-780-3912
  3893.  - 24+8-bit alpha, 640x480, 30 f/s decompression
  3894.  - CL550 version not shipping as announced. 
  3895.  
  3896. Spirit-40  - Sonitech International Inc. ISA card. 617-235-6824
  3897.  - two TMS320C40 DSPs for 80 MFLOPS
  3898.  - connect 16 boards in a hypercube for up to 1280 MFLOPS
  3899.  - JPEG, MPEG-1 audio and other voice coding applications included 
  3900.  
  3901. HardPak - CERAM Inc., ISA and EISA file compression board.  719-540-8500
  3902.  - 3.4 x 1.8 inch footprint (notebook, laptops)
  3903.  - 32KB on-board write-thru file compression cache
  3904.  - CERAM also has an SBus compressive swap-space accelerator for Suns
  3905.  
  3906. macDSP - Spectral Innovations, AT&T DSPC32-based accelerator.  408-727-1314
  3907.  - JPEG functions available
  3908.  - 30 MFLOPS on the NuBus
  3909.  
  3910.  
  3911. VCA-1  - Video compression accelerator for Sun workstations.
  3912.            Tel: (310)829-7733, FAX: (310)829-1694, Internet: spacecc@cerf.net
  3913.          Special-Purpose Hardware for Motion Estimation and DCTs
  3914.   Performs 8x8 DCTs in 21 microsec after first DCT at 52 microsec.*
  3915.   Performs 32x32 cross search for 16x16 block in 239 microsec.*
  3916.          (*Stated times are for a 25-MHz SBus.)
  3917.   Mounts in a single SBus slot.
  3918.   Included software allows user-transparent access.
  3919.   Price: $2,900 (subject to change without notice).
  3920.  
  3921.  Integrated Digital Video Boards - Miscellaneous Multimedia, Video Conferencing
  3922.  ------------------------------------------------------------------------------
  3923.  
  3924. VCI/oem - Vista Communication Instruments, Inc. +358 0 460 099
  3925.  - two AT-board H.261 video codec, PAL or NTSC cameras and monitors
  3926.  -56 kbps (64 kbps) to 2 Mbps, 64 kbps increments
  3927.  - H.221 framing and synchronizing  - H.241 network signalling 
  3928.  - H.200/AV.254 forthcoming standard for compressed audio
  3929.  - network interface boards available
  3930.  
  3931. MediaStation- VideoLogic Inc., JPEG compression board for ISA bus. 617-494-0530
  3932.  - works with VideoLogic DVA-4000/ISA motion video board, custom bus
  3933.  - CL-550 plus ADPCM and PCM audio support
  3934.  - Inmos Transputer for I/O scheduling
  3935.  - Microsoft Windows Multimedia Extensions and proprietary interfaces
  3936.  
  3937. DECspin - Digital Equipment CorpSound/Picture Information Network 508-493-5111
  3938.  - full motion, true-color (24-bit) and greyscale (8-bit black & white)
  3939.  - variable frame size and rate up to 640 x480 x30 NTSC true-color 
  3940.  - Internet or DECnet transmission and disk I/O of live synchronized
  3941.           video/audio
  3942.  - video teleconferencing using standard network protocols 
  3943.  - create and edit of audio and video sequences
  3944.  - voice grade live audio sequences
  3945.  - DECmedia DECvideo and DECaudio hardware and software required
  3946.  
  3947. ActionMedia II - Intel/IBM DVI PS/2 and PC/AT boards.  914-642-5472
  3948.  - i750 processor boards for capture and delivery systems
  3949.  - Microsoft programming support libraries
  3950.  - proprietary RTV and PLV compression algorithms resident, time and
  3951.           time/space VQ
  3952.  - contact Intel Literature Center for #B4P-05 algorithm structure
  3953.  - Real Time  Video (RTV) algorithm 1.5 , effective 128x120 pixel
  3954.           sequence at 30 f/s.
  3955.  - RTV 1.0 is 128x240 at 10 f/s. 
  3956.  - Presentation Level Video (PLV) - extensive off-line processing,
  3957.           exploits inter-frame coherence.  
  3958.  - i750 processor capable of playing-back PLV-compressed 256x240
  3959.           sequences at 30 f/s. 
  3960.  
  3961. DVI Board - Fast Electronic U.S. Inc. laptop board.  508-655-3278
  3962.  - uses Intel i750 chipset
  3963.  - compress or decompress video at up to 30 f/s
  3964.  
  3965. EyeQ - New Video Corp. DVI boards for the Macintosh.  213-396-0282
  3966.  - uses Intel i750 chipset
  3967.  - 150 KB/s full-motion compressed video
  3968.  - T1 and Winchester integration paths
  3969.  
  3970. Copernicus 1000 & 2000 - DesignTech, 408-453-9510
  3971.  - DVI-based presentation and authoring systems 
  3972.  
  3973. Spectrum Signal Processing - DSP96002-based PC-AT board
  3974.  - up to four boards in cascade
  3975.  - other TI, Analog Devices and AT&T-based DSP offerings
  3976.  
  3977. Ariel Corp. - Dual DSP96002 PC-AT board with compression support.  201-429-2900
  3978.  
  3979. Capture I - UVC Corp., 16-bit ISA bus board.  714-261-5336 
  3980.  - 30 f/s of 640/480 interlace capture and record (uses UVC7710)
  3981.  - NTSC or PAL input
  3982.  - VPC200/201 development board set - proprietary NTSC video codec
  3983.          (audio card required).  
  3984.  
  3985. Leadview  - Lead Technologies, Inc. accelerates an enhanced JPEG algorithm
  3986.    on ISA
  3987.  
  3988. IBM - near-term availability:
  3989.  (1) IBM United Kingdom and British Telecommunications plc. 
  3990.  - PC or PS/2 add-on boards by end of 1993
  3991.  - interface to ISDN 2 service (one or two 64kb/s channels)
  3992.  - BT also planning residential videophone product with GEC Marconi Ltd.
  3993.  
  3994. (2) IBM Japan PS/2 board 
  3995.  - uses GCTX64000 for H.261 
  3996.  - ISDN (narrowband 64kb/s ) and IEEE 802.5 LAN interfaces
  3997.  
  3998.  
  3999. Optibase 100 - Optibase, Inc. DSP-based compression/expansion boards.
  4000.    818-719-6566
  4001.  - supports JPEG
  4002.  - supports CCITT G.721 and ANSI T1.301 & T1.303  drafts (voice and
  4003.           music) 
  4004.  - and proprietary compression (AADCT, lossless)
  4005.  
  4006. Motorola - DSP56002 (fixed-point 40MHz version of the 56001)
  4007.  
  4008. AT&T JPEG coder (George Warner <warnergt@aloft.att.com>)
  4009.         - runs on a DSP3210 under the VCOS operating system.
  4010.    The coder can be used to simultaneously compress/decompress
  4011.    multiple images and/or be used in conjunction with other DSP
  4012.    modules to preprocess or postprocess the image data.
  4013.  
  4014.    Other modules available for the DSP3210 include audio coders
  4015.    (such as MPEG, SBC, CDXA, and G.722), modem/fax data pumps
  4016.    (V.32bis, V.22bis, and V.29), DTMF, call progress detection,
  4017.    sample rate conversion, and more.
  4018.  
  4019.  
  4020. MWave - TI, IBM, Intermetrics multimedia system, due from IBM in 1993. 
  4021.  
  4022. Misc. NuBus boards - RasterOps , Radius, Mass Microsystems, Orange Micro,
  4023. IBM M - - Motion.
  4024.  
  4025. P.OEM - Interated Systems Inc. fractal compression boards for the PC.
  4026. 404-840-0310
  4027.  
  4028. two desktop video conferencing products for Sparc's
  4029. with the Parallax XVIDEO board:
  4030.  
  4031. Communique! - desktop video conferencing products for Sparcs with the Parallax
  4032.               XVIDEO board:
  4033.  InSoft, Inc., 4718 Old Gettsburg Road, Executive Park West I, Suite 307
  4034.  Mechanicsburg, PA 17055, USA. email: info@insoft.com
  4035.         phone: 717-766-6290, fax: 717-766-8866
  4036.  
  4037. PSVC - desktop video conferencing products for Sparcs with the Parallax
  4038.               XVIDEO board:
  4039.  Paradise Software, Inc., 55 Princeton Heightstown Rd, Suite 109
  4040.  Princeton, NJ 08550, USA. email: support@paradise.com
  4041.  phone: 609-275-4475, fax: 609-275-4702
  4042.  
  4043. North Valley Research - video and other time-based media in a UNIX environment
  4044.         North Valley Research; 15262 NW Greenbriar Pkwy; Beaverton, OR  97006
  4045.         Phone (503) 531-5707, Fax (503) 690-2320. Todd Brunhoff <toddb@nvr.com>
  4046.  
  4047.  Boards Under Development
  4048.  ------------------------
  4049.  
  4050. Matrox - Matrox Studio line of PC boards will include a 64-bit MOVIE bus and
  4051.          JPEG compression.
  4052.  
  4053.  
  4054. ------------------------------------------------------------------------------
  4055.  
  4056. Subject: [99] Acknowledgments
  4057.  
  4058.  
  4059. There are too many people to cite. Thanks to all people who directly
  4060. or indirectly contributed to this FAQ.
  4061.